PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread


Seiten : 1 2 3 [4] 5 6 7 8 9 10

Lustiger Troll
2004-05-05, 12:26:20
Original geschrieben von seahawk
AFAIK nutzt FarCry für die NV3X überwiegend 1.1 Shader.
Für den R3XX nutzt es PS2.0 Shader, auch wenn man die gleichen Effekte auch unter 1.1 realisieren könnte. (was wiederum exakt den Empfehlungen von ATI entspricht)

Ich behaupte jetzt mal, dass man bei R420 keine großen Verbesserungen mehr erwarten darf was die Leistung angeht. Es ist halt R300 x 2 und die Software ist schon sehr gut auf diesen optimiert.

Der NV40 hingegen ist komplett neu, Optimierungen auf den NV3X schaden ihm eher. Da schlummert evtl. noch Potential.

Auch ATI nutzt PS1.1 wo es keine PS2.0 braucht, also eher nach empfehlung von NV ;), aber das mit den Treibern denke ich auch... NV kann da sicher noch aufschliessen.

Mofo
2004-05-05, 12:54:15
x800 xt overclocked

http://www.driverheaven.net/reviews/X800XTdhreview/overclocking.htm

seahawk
2004-05-05, 13:04:07
@DrumDub

Ich persönlich traue dem 3D Analyser nicht so richtig.

Exxtreme
2004-05-05, 13:10:35
Original geschrieben von seahawk
@DrumDub

Ich persönlich traue dem 3D Analyser nicht so richtig.
Warum nicht?

So wie es aussieht, enthält der Farcry-Code einige Abfragen bezüglich der Vendor-IDs. Sprich, auch wenn eine PS2.0-fähige HW vorliegt, heisst das noch lange nicht, daß man mit dieser GraKa die volle Bildqualität standardmässig bekommt wenn Crytec der Meinung war, daß diese GraKa zu langsam ist.

Briel
2004-05-05, 13:17:49
Original geschrieben von Exxtreme
Warum nicht?

So wie es aussieht, enthält der Farcry-Code einige Abfragen bezüglich der Vendor-IDs. Sprich, auch wenn eine PS2.0-fähige HW vorliegt, heisst das noch lange nicht, daß man mit dieser GraKa die volle Bildqualität standardmässig bekommt wenn Crytec der Meinung war, daß diese GraKa zu langsam ist.

Mit anderen Worten kassiert Crytek Geld von einer GraKafirma, ist aber gleichzeitig der Meinung dass diese zulangsam sind, und deswegen schaut das Spiel dann schlechter als als bei der Konkurrenz, die kein Geld dalassen hat.

Das ist ja fast heftiger als das, was Microsoft so aufführt :eyes:

seahawk
2004-05-05, 13:18:32
Original geschrieben von Exxtreme
Warum nicht?

So wie es aussieht, enthält der Farcry-Code einige Abfragen bezüglich der Vendor-IDs. Sprich, auch wenn eine PS2.0-fähige HW vorliegt, heisst das noch lange nicht, daß man mit dieser GraKa die volle Bildqualität standardmässig bekommt wenn Crytec der Meinung war, daß diese GraKa zu langsam ist.

Das ist richtig.

Trotzdem erscheint mir gerade FarCry immer mehr als für Benchmarks ungeeignet. Die scheinen sich da ziemlich einen gemischt zu haben.

Wenn der Analyser Recht hat, dann kann man den GeForce Karten doch kaum noch einen Vorwirf für die Nutzung von 1.1. Shadern machen. Die ATI nutzen fast genauso viele.

Und sagte nicht ATI, dass man möglichst viel als 2.0 machen sollte ?

Und warum brechen die Fxen dann so ein wenn man sie auf den Radeonpfad zwingt ??

DrumDub
2004-05-05, 13:25:26
Original geschrieben von seahawk
Und warum brechen die Fxen dann so ein wenn man sie auf den Radeonpfad zwingt ??

ist doch klar: nur ps 2.0. beim nv3x pfad gibts hauptsächlich ps 2.x mit pp.

ps 1.x wird soch auf nem r3x0 auch mit fp24 gerechnet, weils kein fx12 gibt, von daher ist es egal, ob ich ps 1.x oder 2.0 verwende, wenn der shader gleich ist. wobei das wahrschienlich gar nicht geht, weil der hlsl-compiler automatisch ps 1.x ausspuckt, wenn fx12 reicht.

seahawk
2004-05-05, 13:29:40
Original geschrieben von DrumDub
ist doch klar: nur ps 2.0. beim nv3x pfad gibts hauptsächlich ps 2.x mit pp.

Und das soll soviel ausmachen ?? Hmm...

Vor allem sollte man PP nicht eher für die 1.1 Shader nutzen, da die ja sowieso nicht mehr brauchen ??

Mir ist FarCry immer mehr suspekt.

Das erklärt aber wiederum nicht das Verhalten des NV40 auf dem Radeonpfad.

Crushinator
2004-05-05, 13:30:12
Original geschrieben von Briel
Mit anderen Worten kassiert Crytek Geld von einer GraKafirma, ist aber gleichzeitig der Meinung dass diese zulangsam sind, und deswegen schaut das Spiel dann schlechter als als bei der Konkurrenz, die kein Geld dalassen hat. Da es jedoch mehr Sinn macht, das eigene Produkt möglichst unter breite Käuferschichten zu bringen und sie nicht zu verärgert, würde ich Deine Vermutung als relativ praxisfremd und höchsttheoretisch bezeichnen.
Das ist ja fast heftiger als das, was Microsoft so aufführt :eyes: Wenn dem tatsächlich so wäre, ja. Aber wie gesagt, ich glaub' da nicht dran.

DrumDub
2004-05-05, 13:34:47
Original geschrieben von seahawk
Und das soll soviel ausmachen ?? Hmm...

Vor allem sollte man PP nicht eher für die 1.1 Shader nutzen, da die ja sowieso nicht mehr brauchen ??

ps 1.1 != ps 2.x mit pp

pp (fp16+fp32) gibts nur bei ps 2.x.

ps 1.1 nutzt nur int, also fx12.

Das erklärt aber wiederum nicht das Verhalten des NV40 auf dem Radeonpfad.

wo ist ds gebencht worden?

ow
2004-05-05, 13:40:53
.

aths
2004-05-05, 13:44:06
Original geschrieben von seahawk
Der NV40 hingegen ist komplett neu, Optimierungen auf den NV3X schaden ihm eher.Jain. Code, mit dem CineFX(2) gut zurecht kommt, kann ein anständiger Recompiler in Code umwandeln mit dem der NV40 vorzüglich zurecht kommt.

Lustiger Troll
2004-05-05, 13:44:29
Original geschrieben von ow
Das kann nicht sein.
Der HLSL muss schon wissen (dadaurch das man es ihm mitteilt), welche PS Version er generieren soll.

Da stellt sich mir eine Frage, wo ist der unterschied zwischen DX HLSL und CG? Das Spiel wurde AFAIK mit CG geschrieben.

DrumDub
2004-05-05, 13:45:30
Original geschrieben von ow
Das kann nicht sein.
Der HLSL muss schon wissen (dadaurch das man es ihm mitteilt), welche PS Version er generieren soll.

oki, war nur ne vermutung meinerseits. dann hat cry tek wohl in erster linie sich darauf konzentriert möglichst viele effekte in ps 1.1 zu realisieren, da dies eben auch von nv2x und r2x0 unterstützt wird und damit auf diesen karten darstellbar ist.

ow
2004-05-05, 13:47:59
.

seahawk
2004-05-05, 13:48:46
Original geschrieben von DrumDub
ps 1.1 != ps 2.x mit pp

pp (fp16+fp32) gibts nur bei ps 2.x.

ps 1.1 nutzt nur int, also fx12.



wo ist ds gebencht worden?

Ok.

Die Radeon rechnet doch immer mit FP24 richtig ??

Die Fxen haben allerdings eine sehr effektive FX Einheit und sollen auch kaum Probleme mit 1.1 haben.

2.X mit pp sollte bei richtiger Implementation auch halbwegs laufen.

Wo kommt dann der Unterschied her ??

Ich glaube es gab son einen Test für den NV40. Da war er langsamer. Ich kann mich noch an die Diskussion hier erinnern.

@aths -. Wie gut funktioniert der Recompiler in den neuen Treibern ?

ow
2004-05-05, 13:50:17
.

aths
2004-05-05, 13:53:21
Original geschrieben von seahawk
@aths -. Wie gut funktioniert der Recompiler in den neuen Treibern ? www.aktiv-gegen-plenken.de :)

Nachdem, was Demirug für PCGH getestet hat, scheint die Schlussfolgerung dass NV noch etwas Arbeit ins Haus steht, recht naheliegend. Imo wird das damit gestützt, dass die CineFX-Optimierungen auch erst Monate nach verfügbarer Hardware kamen.

DrumDub
2004-05-05, 13:59:31
Original geschrieben von aths
Nachdem, was Demirug für PCGH getestet hat, scheint die Schlussfolgerung dass NV noch etwas Arbeit ins Haus steht, recht naheliegend. Imo wird das damit gestützt, dass die CineFX-Optimierungen auch erst Monate nach verfügbarer Hardware kamen.

macht ja auch sinn, da nv die weitem komplexere hardware hat und sich bei r420 gegenüber dem r3x0 nicht wirklich was verändert hat bezüglich der pipeline. bei den ps gibts mehr regsister und mehr instruktionen sind möglich, das ist aber wohl auch alles.

aths
2004-05-05, 14:04:23
Original geschrieben von DrumDub
macht ja auch sinn, da nv die weitem komplexere hardware hat und sich bei r420 gegenüber dem r3x0 nicht wirklich was verändert hat bezüglich der pipeline. bei den ps gibts mehr regsister und mehr instruktionen sind möglich, das ist aber wohl auch alles. Was die NV40-Pipe angeht, versuche ich im Moment, von Kirk noch einige Details zu kriegen. Ganz so einfach auf den NV40 zu optimieren, wie der Presse in München versichert wurde, ist wohl doch nicht möglich.

cxgbdfx
2004-05-05, 14:11:38
Original geschrieben von aths
FP32 hat effektiv 24 Bit Auflösung, FP24 bietet nur 17 Bit. Damit hat man mit FP32 (im gleichen "stop", also "Bereich") 128x feinere Stufen. Das kommt einigen Effekten zugute.


Nachhilfe!

ein Bit besteht immer aus 8 byte, somit kann es keine 17 Bit geben!

Ausserdem ist DX9 FP24 Bit und nix anderes, daher wird kein Spiel dieses Feature nutzen!

seahawk
2004-05-05, 14:15:05
Original geschrieben von aths
www.aktiv-gegen-plenken.de :)



:) Ich habe verstanden :)

HOT
2004-05-05, 14:15:08
Original geschrieben von cxgbdfx
Nachhilfe!

ein Bit besteht immer aus 8 byte, somit kann es keine 17 Bit geben!

Ausserdem ist DX9 FP24 Bit und nix anderes, daher wird kein Spiel dieses Feature nutzen!

Aua, da rollen sich mir ja die Fussnägel hoch :D
Anwärter auf den Spruch des Jahres.

ow
2004-05-05, 14:15:26
.

ow
2004-05-05, 14:16:09
.

Winter[Raven]
2004-05-05, 14:19:57
löschen bitte :)

x-dragon
2004-05-05, 14:24:23
Man könnte ja auch einfach ein wenig zur Aufklärung beitragen :stareup:.
Original geschrieben von cxgbdfx
Nachhilfe!

ein Bit besteht immer aus 8 byte, somit kann es keine 17 Bit geben!

Ausserdem ist DX9 FP24 Bit und nix anderes, daher wird kein Spiel dieses Feature nutzen! Zum Thema Nachhilfe empfehle ich diesen Artikel:
http://www.3dcenter.org/artikel/fp_format/ (FP24/32 findet man auf Seite 8, ist aber gerade keiner leichter Lesestoff)

DrumDub
2004-05-05, 14:25:12
Original geschrieben von aths
Was die NV40-Pipe angeht, versuche ich im Moment, von Kirk noch einige Details zu kriegen. Ganz so einfach auf den NV40 zu optimieren, wie der Presse in München versichert wurde, ist wohl doch nicht möglich.

dazu muss man sich ja nur dein schönes diagramm (http://www.3dcenter.org/artikel/r420_technik/index3.php) ansehen, welches imho verdeutlicht, dass die pipeline des nv40 bei weitem komplexer ist als die des r420. :)

HOT
2004-05-05, 14:25:44
Original geschrieben von Winter[Raven]
löschen bitte :)

Warum? Hat doch Unterhaltungswert :D

Demirug
2004-05-05, 14:35:43
Original geschrieben von DrumDub
dazu muss man sich ja nur dein schönes diagramm (http://www.3dcenter.org/artikel/r420_technik/index3.php) ansehen, welches imho verdeutlicht, dass die pipeline des nv40 bei weitem komplexer ist als die des r420. :)

Und das ist noch stark vereinfacht.

DrumDub
2004-05-05, 14:36:54
Original geschrieben von HOT
Warum? Hat doch Unterhaltungswert :D

hehe... allerdings. die beiden sprüche der letzten tage:

Dass die Ps1.1 Shader aber wiederum nur mit FP16 gerechnet werden, ist nVidia zuzuschreiben.


ein Bit besteht immer aus 8 byte, somit kann es keine 17 Bit geben!

Ausserdem ist DX9 FP24 Bit und nix anderes, daher wird kein Spiel dieses Feature nutzen!

:lolaway:

p.s.: und ja, auch ich schreibe häufig mal quatsch, aber nicht SOWAS. ;D

LovesuckZ
2004-05-05, 14:45:47
Original geschrieben von DrumDub
ps 1.x wird soch auf nem r3x0 auch mit fp24 gerechnet, weils kein fx12 gibt, von daher ist es egal, ob ich ps 1.x oder 2.0 verwende, wenn der shader gleich ist.

Ja und der NV40 ist mit PS2.0 gegenüber PS1.1 deutlich schneller oder andersrum: PS1.1 bremsen ihn aus!

Fadl
2004-05-05, 14:49:49
Original geschrieben von LovesuckZ
Ja und der NV40 ist mit PS2.0 gegenüber PS1.1 deutlich schneller oder andersrum: PS1.1 bremsen ihn aus!

Das habe ich schon anders gelesen....
Fragen wir mal anders: Hast du Beweise?

ow
2004-05-05, 14:50:11
.

Godmode
2004-05-05, 14:50:39
Mal ganz was anders und zwar schreiben sie in der PCGH das ATI eine Stageoptimierung auf Schicht 1-7 verwendet wenn man AF aktiviert und es nicht möglich war mit Rtool oder Atuner diese zu deaktivieren!

Unter Open GL ist diese Stageoptimierung aber nicht vorhanden und da ist die Geforce auch meistens vorne.

Könnte man die mehr Performance auf diese kleine Optimierung zurückführen? Mir fällt halt auf, das R420 beim zuschalten von AF fast nichts verliert?

Wenn ich da falsch liege, korrigiert mich. Und ich will da nicht ATI schlecht machen, da ich KEIN Fanboy bin!! Nur das soll mir schnell ein Ahts Leo oder Demi erklären.

mfg dom

Godmode
2004-05-05, 14:53:29
Original geschrieben von Fadl
Das habe ich schon anders gelesen....
Fragen wir mal anders: Hast du Beweise?

Ich hab das auch schon mal wo gehört, aber bin mir nicht sicher ob das stimmt. Anscheinend gefallen dem NV40 die kurzen Shader nicht so sehr.

Da müsste man Demirug eine 6800 geben, und ihn das analysieren lassen.

ow
2004-05-05, 14:55:32
.

ow
2004-05-05, 14:57:05
.

LovesuckZ
2004-05-05, 14:57:26
Original geschrieben von ow
Quelle?

http://www.xbitlabs.com/articles/video/display/r420_28.html

Wenn ich das richtig interpretiere, ist der selbe Shader mit PS2.0 deutlich schneller als mit PS1.1. Nunja, 50%...

Und hier auch mal der Leistungsunterschied zwischen PS1.1 und PS1.4 des 3dmark2001 im vergleich XT und 6800U: http://www.xbitlabs.com/articles/video/display/r420_30.html

DrumDub
2004-05-05, 15:01:27
Original geschrieben von LovesuckZ
http://www.xbitlabs.com/articles/video/display/r420_28.html

Wenn ich das richtig interpretiere, ist der selbe Shader mit PS2.0 deutlich schneller als mit PS1.1. Nunja, 50%...

Und hier auch mal der Leistungsunterschied zwischen PS1.1 und PS1.4 des 3dmark2001 im vergleich XT und 6800U: http://www.xbitlabs.com/articles/video/display/r420_30.html

sieht wohl ganz danach aus als ob ps 1.1 langsamer als ps 2.0 und ps 1.4 auf dem nv 40 ist. sehr interessant.

ow
2004-05-05, 15:07:00
.

seahawk
2004-05-05, 15:12:17
Original geschrieben von DrumDub
sieht wohl ganz danach aus als ob ps 1.1 langsamer als ps 2.0 und ps 1.4 auf dem nv 40 ist. sehr interessant.

Was wiederum erhlären würde warum NV rät die Shader in der höchst möglichen Variante zu erstellen.

Was wiederum die Schwäche der NV40 erklären würde, da dort viel 1.1 zum Einsatz kommt.

Und wer vermutet noch, dass beim neusten Treiber die 1.1 Shader gegen solche der Version 2.0 per Treiber ersetzt werden ?? :D

DrumDub
2004-05-05, 15:14:00
Original geschrieben von ow
Der 2. Link sagt nichts aus, weil hier ja nur eine Vergleich X800 zu NV40U gemacht wird.


die aussage versteht ich jetzt nicht so ganz. imho zeigt der zweite link, dass ps 1.4 und 2.0 auf dem nv40 im verhältnis zum r420 gleich skalieren. bei ps 1.1 gibt nen verhältnismäßig großen einbruch auf dem nv 40, welches ja auch der erste link bestätigt. dem r420 ist des völlig egal, ob ps 1.x oder ps 2.0. er rechnet immer gleichschnell.

Demirug
2004-05-05, 15:17:35
Original geschrieben von ow
Der 1. Link ist interessant, jetzt muesste man noch wissen, ob es sich wirklich um denselben Shader handelt (ich gehe mal davon aus, kann das jemand bestaetigen??).

Ja, die beiden Shader machen genau das gleiche.

Wobei ich jetzt nicht mal sagen möchte das dies unbedingt eine PS 1.1 vs PS 2.0 Sache ist. Der Treiber hat derzeit einfach die "Macke" das er manchmal aus mir völlig unersichtlichen Gründen noch einen extra Pass an einen Shader hängt. Gerade bei kurzen Shadern die sowieso nur ein oder zwei Takte brauchen haut das dann natürlich gleich kräftig rein.

DrumDub
2004-05-05, 15:19:49
Original geschrieben von seahawk
Was wiederum erhlären würde warum NV rät die Shader in der höchst möglichen Variante zu erstellen.

Was wiederum die Schwäche der NV40 erklären würde, da dort viel 1.1 zum Einsatz kommt.

jupp. so siehts aus. :)

Und wer vermutet noch, dass beim neusten Treiber die 1.1 Shader gegen solche der Version 2.0 per Treiber ersetzt werden ?? :D

hehe... jaja, hast ja recht. nur erklärt das immer noch nicht, woher die schwäche bei ps 1.1 kommt. bei ps 1.4 gibts das problem ja wohl nicht. ps 1.1 nutzt ja fx12, aber was nutzt ps 1.4?

edit: hat sich geklärt.

ow
2004-05-05, 15:20:46
.

ow
2004-05-05, 15:22:23
.

DrumDub
2004-05-05, 15:22:27
Original geschrieben von Demirug
Wobei ich jetzt nicht mal sagen möchte das dies unbedingt eine PS 1.1 vs PS 2.0 Sache ist. Der Treiber hat derzeit einfach die "Macke" das er manchmal aus mir völlig unersichtlichen Gründen noch einen extra Pass an einen Shader hängt. Gerade bei kurzen Shadern die sowieso nur ein oder zwei Takte brauchen haut das dann natürlich gleich kräftig rein.

ahh... okay. also ne reine treibersache. also theoretisch müsste der nv40 ps 1.1 genauso schnell verarbeiten wie ps 2.0?

Demirug
2004-05-05, 15:25:07
Original geschrieben von DrumDub
die aussage versteht ich jetzt nicht so ganz. imho zeigt der zweite link, dass ps 1.4 und 2.0 auf dem nv40 im verhältnis zum r420 gleich skalieren. bei ps 1.1 gibt nen verhältnismäßig großen einbruch auf dem nv 40, welches ja auch der erste link bestätigt. dem r420 ist des völlig egal, ob ps 1.x oder ps 2.0. er rechnet immer gleichschnell.

Kann man so allgemein nicht sagen. Ich kann dir 1.1 Shader geben wo der NV40 viel besser performat als der R420 aber genauso gibt es auch Beispiele wo es genau anders herum ist. Das trift aber auf jede Shaderversion zu. Es ist einfach sehr gefährlich aufgrund von ein paar Tests allgemeine Aussagen zu treffen.

DrumDub
2004-05-05, 15:26:27
Original geschrieben von ow
Richtig. Genau das zeigt der Link.
Da aber die hier benutzten Shader nicht dasselbe tun laesst sich keine andere Aussage darueber treffen als diejenigen in deinem Posting.:D

jetzt hab ichs verstanden. :D

Demirug
2004-05-05, 15:26:48
Original geschrieben von DrumDub
ahh... okay. also ne reine treibersache. also theoretisch müsste der nv40 ps 1.1 genauso schnell verarbeiten wie ps 2.0?

Die gleiche Rechnung sollte unabhängig von der benutzten Shaderversion gleich schnell ausgeführt werden.

ow
2004-05-05, 15:29:17
.

DrumDub
2004-05-05, 15:30:06
Original geschrieben von Demirug
Kann man so allgemein nicht sagen. Ich kann dir 1.1 Shader geben wo der NV40 viel besser performat als der R420 aber genauso gibt es auch Beispiele wo es genau anders herum ist. Das trift aber auf jede Shaderversion zu. Es ist einfach sehr gefährlich aufgrund von ein paar Tests allgemeine Aussagen zu treffen.

nun gut, das leuchet ein, wenn man bedenkt wie unterschielich die architekturen sind. da bleibt bei mir dann einfach das problem, dass ich keinerlei ahung habe (und auch nie haben werde) wie man shader programmiert. ich abstrahiere die ergebnisse solcher tests dann wohl einfach zu sehr und versuche dann eine allgemeingültige aussage zu treffen. ;)

Stell dich ein
2004-05-05, 15:55:40
Dies hier wurde, glaube ich, noch nicht gepostet:

http://www.xbitlabs.com/articles/video/display/r420_10.html

Man sollte allerdings berücksichtigen, das bei der NV-Karte noch ein paar Bugs die Vergleichbarkeit erschweren.

Die interessantesten Wert sind m.E. auch die des Deltachrome.

PS: Was speziell ist Chromotion?

dildo4u
2004-05-05, 16:31:49
Die werbe tour geht weiter Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer.

http://www.warp2search.net/modules.php?name=News&file=article&sid=17833

iNsi
2004-05-05, 16:32:43
ist ja alles schön und gut, ab welchem datum werde ich aber die x800 xt bestellen können ? ;)

Demirug
2004-05-05, 16:44:25
Original geschrieben von dildo4u
Die werbe tour geht weiter Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer.

http://www.warp2search.net/modules.php?name=News&file=article&sid=17833

Glauben wir Gabe noch was?

Vorallem welche X800 gegen welche 6800 meint er denn?

ShadowXX
2004-05-05, 16:48:51
Original geschrieben von iNsi
ist ja alles schön und gut, ab welchem datum werde ich aber die x800 xt bestellen können ? ;)

Das Bestellen ist im Prinzip relativ uninteresant...ab wann Sie dann auch wirklich "echt" verfügbar ist, ist viel interesanter...

Lt. ATI solls ab heute die Pro und ab dem 21. die XT geben...aber wohl nur in AMILand/Canada...

Mal sehen ab wann Sie in deutschen Preislisten auftaucht...

klaus
2004-05-05, 16:53:23
Original geschrieben von iNsi
ist ja alles schön und gut, ab welchem datum werde ich aber die x800 xt bestellen können ? ;)

Vorfreude ist die schönste Freude! ;)

iNsi
2004-05-05, 17:09:49
Original geschrieben von ShadowXX
Das Bestellen ist im Prinzip relativ uninteresant...ab wann Sie dann auch wirklich "echt" verfügbar ist, ist viel interesanter...

Lt. ATI solls ab heute die Pro und ab dem 21. die XT geben...aber wohl nur in AMILand/Canada...

Mal sehen ab wann Sie in deutschen Preislisten auftaucht...

Ist klar!
Ich formuliere um:

Ab wann werde ich sie in Händen halten können ? :bäh:

Im ernst, man kann nur spekulieren.

Aber wenn sie verfügbar ist, rechne ich nicht mit Engpässen, da (ich wage es zu sagen) Gamer zu der jüngeren Generation gehören und nicht die Geldmittel haben, um mir meine x800xt streitig zu machen ;D

LovesuckZ
2004-05-05, 17:14:30
Original geschrieben von Demirug
Vorallem welche X800 gegen welche 6800 meint er denn?

Vorallem 40% bei 30% mehr Chiptakt?
Nunja, da die Beta auf der XT kaum schneller laeuft, werde eine für Nvidiakarten optimierte Engine wohl nicht langsamer sein...

[dzp]Viper
2004-05-05, 17:20:38
Original geschrieben von LovesuckZ
Vorallem 40% bei 30% mehr Chiptakt?
Nunja, da die Beta auf der XT kaum schneller laeuft, werde eine für Nvidiakarten optimierte Engine wohl nicht langsamer sein...

laut ATI unterstützt HL2 3Dc - vielleicht bringts ja doch mehr als wir alle denken....
Aber die Zeit wirds zeigen... (ich glaube nämlich nicht an 40% - vielleicht 10-20% :D)

betasilie
2004-05-05, 17:21:12
Original geschrieben von LovesuckZ
Vorallem 40% bei 30% mehr Chiptakt?
Nunja, da die Beta auf der XT kaum schneller laeuft, werde eine für Nvidiakarten optimierte Engine wohl nicht langsamer sein...
Nunja, wenn Valve auf 3Dc setzt, wäre das schon möglich.

DrumDub
2004-05-05, 17:21:45
Original geschrieben von LovesuckZ
Vorallem 40% bei 30% mehr Chiptakt?
Nunja, da die Beta auf der XT kaum schneller laeuft, werde eine für Nvidiakarten optimierte Engine wohl nicht langsamer sein...

ich sag nur 3dc. ;)

DanMan
2004-05-05, 17:23:32
Original geschrieben von Majestic
Ich frage mich ob die Radeon bei gleicher Taktung wie die Geforce auch solche Leistung gebracht hätte wie eben diese ;)
Gibts auf www.tecchannel.de (http://www.tecchannel.de/hardware/1384/index.html) zu sehen (naja, ham halt die Ultra Extreme getestet).
Der Grafikchip NVIDIA GeForce 6800 Ultra Extreme kann in punkto 3D-Performance den RADEON X800 XT Platinum Edition knapp schlagen. Er erreicht zum Beispiel beim 3DMark03 Werte, die bis zu 6 Prozent höher liegen - und das trotz einer um 70 MHz geringeren Core-Taktfrequenz. Bei den übrigen Benchmarks fällt der Leistungsvorsprung deutlich geringer aus, so dass man von einem echten Kopf-an-Kopf-Rennen zwischen dem GeForce 6800 Ultra Extreme und dem RADEON X800 XT Platinum Edition sprechen kann.
Und natürlich hier: http://www.3dcenter.org/artikel/r420_benchmarks/index12.php

Mir persönlich gehen die "Optimierungen" von beiden Seiten mächtig auf den Zeiger. Es wird Zeit, dass sich ein 3. Hersteller für High-End Karten etabliert. Einer, der solche "Optimierungen" nur wegen der Leistung nicht nötig hat.

deekey777
2004-05-05, 17:25:23
Original geschrieben von LovesuckZ
Vorallem 40% bei 30% mehr Chiptakt?
Nunja, da die Beta auf der XT kaum schneller laeuft, werde eine für Nvidiakarten optimierte Engine wohl nicht langsamer sein...

Ich sag auch: 3Dc (nur so zum Spass). ;D

(Edit: die HL2 Beta kann man eh in die Tonne werfen, da sie einiges nicht hat, was das fertige Spiel mitbringt.)

LovesuckZ
2004-05-05, 17:31:55
Nun, da HL2 beim DX9 Pfad immer PS2.0 verwendet, sehe ich die Aussage mit 3Dc nicht als haltbar an. Aber lassen wir uns überrraschen :)

Original geschrieben von deekey777
(Edit: die HL2 Beta kann man eh in die Tonne werfen, da sie einiges nicht hat, was das fertige Spiel mitbringt.)

Eine Nvidiaoptimierung?

LovesuckZ
2004-05-05, 17:33:02
Original geschrieben von Demirug
Wobei ich jetzt nicht mal sagen möchte das dies unbedingt eine PS 1.1 vs PS 2.0 Sache ist. Der Treiber hat derzeit einfach die "Macke" das er manchmal aus mir völlig unersichtlichen Gründen noch einen extra Pass an einen Shader hängt. Gerade bei kurzen Shadern die sowieso nur ein oder zwei Takte brauchen haut das dann natürlich gleich kräftig rein.

Also kann man starke Leistungssteigerungen unter DX8 erwarten?

seahawk
2004-05-05, 17:40:25
Original geschrieben von DrumDub
ich sag nur 3dc. ;)

Das vermute ich auch. Dafür könnte es bei DommIII genau andersherum aussehen.

Demirug
2004-05-05, 17:43:14
Original geschrieben von LovesuckZ
Also kann man starke Leistungssteigerungen unter DX8 erwarten?

Nein, das ist wie gesagt ein allgemeines Problem. Bei DX8 Spielen limitiert sowieso eher die Fillrate als die Shaderpower.

deekey777
2004-05-05, 17:44:50
Original geschrieben von LovesuckZ
Nun, da HL2 beim DX9 Pfad immer PS2.0 verwendet, sehe ich die Aussage mit 3Dc nicht als haltbar an. Aber lassen wir uns überrraschen :)



Eine Nvidiaoptimierung?

Wieso? Die ist doch schon dabei!!! :D

(Virtuelles Displacement Mapping soll dabei sein, HDR (wie in der Technikdemo), SSS(?))

Richtiges SM3 wird HL2 auch haben, aber bestimmt erst im nächsten Jahr.


Edit: Es wäre schade, wenn Entwickler 3Dc nur zur besseren Performance anwenden würden.

LovesuckZ
2004-05-05, 17:46:14
Original geschrieben von Demirug
Nein, das ist wie gesagt ein allgemeines Problem. Bei DX8 Spielen limitiert sowieso eher die Fillrate als die Shaderpower.

Wenn das ein allgemeines Problem sei, dann waere also der NV40 bei gleichen PS2.0 Shadern immer schneller?
Kann man per Treiber die normalen PS1.1 in PS2.0 konvertieren?

Das gehört nicht zum Thema, aber warum ist die X800 Pro in vielen DX8 Games genauso schnell?
Und, warum verliert der NV40 beim Einsatz von AF prozentmäßig mehr Leistung als der r420?

DrumDub
2004-05-05, 17:50:27
Original geschrieben von LovesuckZ
Und, warum verliert der NV40 beim Einsatz von AF prozentmäßig mehr Leistung als der r420?

bilineare texrurstage"optimierung" auf den stages 1-7, sag ich jetzt mal so.

zu 3dc und hl2:

Half-Life 2 comes (for selected graphics cards) with high-res textures, which will make this seem even more beautiful.
http://games.telenet.be/specials.php?act=one&rid=175

<verschwörungstheorie>vielleicht wurde hl2 ja wegen 3dc verschoben.</verschwörungstheorie> *eg*

LovesuckZ
2004-05-05, 17:52:16
Original geschrieben von DrumDub
bilineare texrurstage"optimierung" auf den stages 1-7, sag ich jetzt mal so.


Nein, siehe 3dcenter Review (wegen AA/AF Settings bzw. xbitlabs.com).
Die Nvidia verliert mit 4AA (siehe xbitlabs) weniger Leistung, bricht aber bei AF deutlich ein. Das selbe Problem hat auch die NV3x Familie, hier wurde aber argumentiert, dass dies an der deutlichen Mehrleistung laege.

Demirug
2004-05-05, 17:54:17
Original geschrieben von LovesuckZ
Wenn das ein allgemeines Problem sei, dann waere also der NV40 bei gleichen PS2.0 Shadern immer schneller?
Kann man per Treiber die normalen PS1.1 in PS2.0 konvertieren?

Ich meinte damit das diese "Shader braucht aus unerfindlichen Gründen einen Takt extra" Problem nicht an eine bestimmte Shaderversion gebunden ist. Es gibt auch bei den 2.0 Shader welche die dem R420 besser gefallen und welche die dem NV40 besser zusagen. Wobei ich beim NV40 wie gesagt noch eine Treiberschwäche sehe. Der R420 kann sich in diesem Punkt auf die R360 Treiber verlassen. Dei sind zwar auch noch nicht 100% perfekt aber scheinen doch ein Stück weiter als die NV40 Treiber zu sein wenn es darum geht die Pipeline optimal auszunutzen.

Das gehört nicht zum Thema, aber warum ist die X800 Pro in vielen DX8 Games genauso schnell?
Und, warum verliert der NV40 beim Einsatz von AF prozentmäßig mehr Leistung als der r420?

Ohne AA/AF limitiert die CPU und das AF des NV40 scheint aufgrund von dem was ich heute gesehen haben immer noch etwas aufwendiger zu filtern als das des R420.

Börk
2004-05-05, 17:56:01
Original geschrieben von LovesuckZ
Nein, siehe 3dcenter Review (wegen AA/AF Settings bzw. xbitlabs.com).
Die Nvidia verliert mit 4AA (siehe xbitlabs) weniger Leistung, bricht aber bei AF deutlich ein. Das selbe Problem hat auch die NV3x Familie, hier wurde aber argumentiert, dass dies an der deutlichen Mehrleistung laege.
Finde ich eigentlich recht verwunderlich, da das AF des NV40 doch ebenso "optimiert" wurde wie ATIs seit dem R300.
Das der NV40 so gut bei AA performnt liegt wohl am downsampling im Ramdac, dass machen die ATI Karten afaik nicht...

Gruß,
Börk

DrumDub
2004-05-05, 17:56:54
Original geschrieben von LovesuckZ
Nein, siehe 3dcenter Review (wegen AA/AF Settings bzw. xbitlabs.com).
Die Nvidia verliert mit 4AA (siehe xbitlabs) weniger Leistung, bricht aber bei AF deutlich ein. Das selbe Problem hat auch die NV3x Familie, hier wurde aber argumentiert, dass dies an der deutlichen Mehrleistung laege.

also beim xbitlabs review wurde die optimierung nicht ausgeschaltet, das haben sie ja selber gesagt. der 3dcenter review ist da nicht so vergleichbar wegen des anderen prozessors, oder irre ich da?

LovesuckZ
2004-05-05, 18:00:26
Original geschrieben von DrumDub
also beim xbitlabs review wurde die optimierung nicht ausgeschaltet, das haben sie ja selber gesagt.[...]

Beim Theorieteil haben sie die "Brilinearitaet" drin gelassen. Und da verlietr der NV40 deutlich mehr leistung als die X800 Pro.

Demirug,
wenn das Problem an keine Shaderversion gebunden sei, worin liegt dann das Problem bei den PS1.1 Test? Für mich sieht es so aus als ob die karte aus einen unerklaerlichen Grund unter PS1.1 deutlich langsamer ist...

aths
2004-05-05, 18:00:29
Original geschrieben von cxgbdfx
Nachhilfe!

ein Bit besteht immer aus 8 byte, somit kann es keine 17 Bit geben!Klar. FP24 nutzt 1 Bit für das Vorzeichen, 7 Bit für den Exponenten und 16 Bit für die Mantisse. Mit der nicht mitgespeicherten führenden "1" hat man 16 + 1 = 17 Bit Präzision pro "stop".
Original geschrieben von cxgbdfx
Ausserdem ist DX9 FP24 Bit und nix anderes, daher wird kein Spiel dieses Feature nutzen! Seit wann ist SM 3.0 nicht DX9?

aths
2004-05-05, 18:02:27
Original geschrieben von LovesuckZ
Ja und der NV40 ist mit PS2.0 gegenüber PS1.1 deutlich schneller oder andersrum: PS1.1 bremsen ihn aus! Nein.

Demirug
2004-05-05, 18:02:39
Original geschrieben von LovesuckZ
Demirug,
wenn das Problem an keine Shaderversion gebunden sei, worin liegt dann das Problem bei den PS1.1 Test? Für mich sieht es so aus als ob die karte aus einen unerklaerlichen Grund unter PS1.1 deutlich langsamer ist...

Solche Fälle gibt es aber auch bei 2.0 Shader deswegen sagte ich ja allgeimens Problem des Shadercompilers.

LovesuckZ
2004-05-05, 18:03:32
Original geschrieben von Demirug
Solche Fälle gibt es aber auch bei 2.0 Shader deswegen sagte ich ja allgeimens Problem des Shadercompilers.

Tritt dieser Fall also rein zufaellig auf oder müssen bestimmte "Bedingungen" erfüllt werden?

aths
2004-05-05, 18:03:32
Original geschrieben von DrumDub
dazu muss man sich ja nur dein schönes diagramm (http://www.3dcenter.org/artikel/r420_technik/index3.php) ansehen, welches imho verdeutlicht, dass die pipeline des nv40 bei weitem komplexer ist als die des r420. :) Original geschrieben von Demirug
Und das ist noch stark vereinfacht. So ist es.

DrumDub
2004-05-05, 18:05:06
Original geschrieben von LovesuckZ
Beim Theorieteil haben sie die "Brilinearitaet" drin gelassen. Und da verlietr der NV40 deutlich mehr leistung als die X800 Pro.


vielleicht ist atis optimierung wesentlich füllratensparender als brilinear? die tests bei xbitlabs müssten nochmal mit vollem tri-af auf der x800xt durchgeführt werden. so lange das nicht passiert, ists nicht vergleichbar. hinzu kommt vielleicht noch die tatsache, dass nvs af so oder so leistungsmäßig schlechter ist? stichwort: atis filtertricks. ;)

Demirug
2004-05-05, 18:07:11
Original geschrieben von LovesuckZ
Tritt dieser Fall also rein zufaellig auf oder müssen bestimmte "Bedingungen" erfüllt werden?

Eine Regel dafür gibt es bestimmt nur habe ich sie nicht gefunden. Ist auch ohne den Sourcecode des Compilers zu kennen fast unmöglich.

LovesuckZ
2004-05-05, 18:13:03
Von Digit-life.com, vom programm Rightmark3d.com

http://www.ixbt.com/video2/images/r420xt/ps-real-time.png

Das selbe Phaenomen...

xfdbgxc
2004-05-05, 18:38:53
Original geschrieben von cxgbdfx
Nachhilfe!

ein Bit besteht immer aus 8 byte, somit kann es keine 17 Bit geben!

Ausserdem ist DX9 FP24 Bit und nix anderes, daher wird kein Spiel dieses Feature nutzen!

Witzbold, ein Byte sind acht Bit. Wenn du in die Kneipe gehst und vom Ober für dich und sieben Kumpels ein BitBurger ("Bitte ein Bit") haben willst, sagste einfach du willst ein Byte.

Was du mit dem zweiten Abschnitt meinst verstehe ich nicht ganz - nur soviel: DX9.0 setzt für Spiele eine FP-Genauigkeit von mindestens 24 Bit vorraus, es sei denn der Spieleentwickler hat anderes im Sinn und implementiert dies dementsprechend. Das FP32, FP16 sowie die anderen Formate für'n Arsch sind, würde ich so nicht sagen...

LovesuckZ
2004-05-05, 18:40:11
Von beyond3d.com:

Looking at the 6800 Ultra results a little more closely though, we see some curious performances because in some cases the PS1.x and partial precision tests are slower than the PS2.0 tests! With the PS1.x and partial precision tests the internal precision is likely to be calculated at FP32 precision, but a type conversion must occur at some point - each of the shaders in this test are actually relatively, with the first few only using about 4 instructions - these are probably executed in two cycles and it may be the case that the the type conversion is not free and hence there is an extra cycle penalty for the partial precision and PS1.x integer shaders, meaning that the FP32 shaders are actually faster in these short shader cases.

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=21

Imo müsste dieses Problem zur Zeit bei jeder Anwendungen auftreten, die PS1.1 benutzt.

Black-Scorpion
2004-05-05, 18:43:57
HIS bringt die X800pro auch wieder als IceQ raus.

http://www.hisdigital.com/images/x800pro_IceQII_s_250.jpg
Und der Kühler sieht besser aus wie der alte.
http://www.hisdigital.com/images/iceq98pro_s.jpg

Demirug
2004-05-05, 18:48:21
LovesuckZ, die ganze Reviews treffen ihere Aussage aufgrund von ein paar Shader. Ich treffe meine Aussagen Aufgrund von ein paar hundert Shadern.

LovesuckZ
2004-05-05, 18:51:57
Original geschrieben von Demirug
LovesuckZ, die ganze Reviews treffen ihere Aussage aufgrund von ein paar Shader. Ich treffe meine Aussagen Aufgrund von ein paar hundert Shadern.

Es ist aber erstaunlich, dass dieses Problem sich bei drei Anwendungen bemerkbar macht (okay, nicht immer der selbe Shader).

MarcWessels
2004-05-05, 19:00:14
Original geschrieben von DrumDub
vielleicht ist atis optimierung wesentlich füllratensparender als brilinear?

Nein. Die Frameratenunterschiede zwischen Texturestageopt. ON und OFF bewegen sich im Bereich der Meßungenauigkeit (in manchen Spielen ist's OHNE Optimierung sogar schneller!!) weshalb xBitlabs einen dicken Fehler macht, in dem sie ständig die brilinearen Benchmarkergebnisse mit der X800XT vergleicht, statt die trilinearen heranzuziehen.

Demirug
2004-05-05, 19:20:56
Original geschrieben von LovesuckZ
Es ist aber erstaunlich, dass dieses Problem sich bei drei Anwendungen bemerkbar macht (okay, nicht immer der selbe Shader).

Ja, ich habe aber auch genügend 1.1 Shader gesehen die diesen Extra Takt nicht gebraucht haben. Wie gesagt der Shadercompiler ist noch nicht perfekt und baut manchmal zu lange Shader.

LovesuckZ
2004-05-05, 19:22:53
Original geschrieben von Demirug
Ja, ich habe aber auch genügend 1.1 Shader gesehen die diesen Extra Takt nicht gebraucht haben. Wie gesagt der Shadercompiler ist noch nicht perfekt und baut manchmal zu lange Shader.

Hm, dann kann es moeglich sein, dass in späteren Treibern die Leistung bei Anwendungen mit PS1.1 deutlich steigern werden.
Danke für die Erklärung des Problems.

Demirug
2004-05-05, 19:28:35
Original geschrieben von LovesuckZ
Hm, dann kann es moeglich sein, dass in späteren Treibern die Leistung bei Anwendungen mit PS1.1 deutlich steigern werden.
Danke für die Erklärung des Problems.

Im Prinzip ja aber bei der Verwendung von DX8 Shadern die ja in der Regel sehr kurz sind geht eher die Filrate oder die Bandbreite aus.

Scose
2004-05-05, 19:38:05
bei aller Euphorie zu den GPU-Herstellern und deren Chips.

Sagt mal , kriegt ihr keinen hoch wenn eurer Favorit nicht vorneliegt?

Kann man das ganze vielleicht mal sachlich betrachten, bitte?

Danke

MarcWessels
2004-05-05, 19:38:58
Original geschrieben von Radeonator
Selbst mit einer auf 550MHz getrimmten Karte ca 20% langsamer und schlechteres Feature Set als die nV40...da hat ATi sich wohl diesmal verzettelt.Stellt euch vor die hätten wirklich nur das 12Pipe Design rausgebracht!

Bitte???

Das soll jetzt kein Geflame sein aber das geht an Dich als auch an die Leute, die von Geschwindigkeitsvorteieln der X800XT im einsteligen Bereich sprechen-> Brille gefällig?! Wir haben hier Geschwindigkeitsvorteile im zweistelligen bis DREIstelligen Bereich für ATI! "FarCry" bis zu 200%, "UT" 36 - 47%, "Call of Duty" bis zu 30% (wenn man selbstverständlich die brilineare Optimierung des NV40 abschaltet!), "Tomb Raider AOD" 82%, "Homeworld 2" 50% und bei den restlichen Spielen meist etwa 15% gegenüber der 6800UE!

Also, manche Leute begreif' ich echt nicht...

Neutral
2004-05-05, 19:38:58
Wow wirklich wieder ein krasser ATI Fans schlagen auf nVidia fans ein.

Jetzt noch zusammen mit dem HL2 ist auf Sys X schneller als auf Y, dann haben wir den 3. Weltkrieg.
Etwa mit diesem Statement von neowin auf der WinHec:

http://www.neowin.net/events/index.php?cat=2

"The demo was very impressive but was not a touch on the demo by Gabe Newell from Valve. This stole the whole keynote to actually see some new footage from Half Life 2. Again we got the whole video which is approximately 3 minutes long and as soon as we find somewhere with firewire we’ll get it on here asap because it’s one to watch!
Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer."

dildo4u
2004-05-05, 19:47:39
Original geschrieben von Neutral
Wow wirklich wieder ein krasser ATI Fans schlagen auf nVidia fans ein.

Jetzt noch zusammen mit dem HL2 ist auf Sys X schneller als auf Y, dann haben wir den 3. Weltkrieg.
Etwa mit diesem Statement von neowin auf der WinHec:

http://www.neowin.net/events/index.php?cat=2

"The demo was very impressive but was not a touch on the demo by Gabe Newell from Valve. This stole the whole keynote to actually see some new footage from Half Life 2. Again we got the whole video which is approximately 3 minutes long and as soon as we find somewhere with firewire we’ll get it on here asap because it’s one to watch!
Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer." hab ick auf seite 41 schon gepostet

Roadkill
2004-05-05, 19:51:07
Einfach köstlich wenn nVidioten und fanATIc´s aufeinander eindreschen.

Ich für meinen Teil denke, das so gesehen der R420 der bessere Chip ist in der heutigen Zeit.
So wie ich das gesehen habe ist er im Quali Modus (xAA) die schnellere Wahl. Der NV40 hat zwar die bessere Technik, doch bezweifle ich sehr stark das er PS 3.0 in ausreichender Geschwindigkeit darstellen kann. Hier muss wohl ein Refresh Chip herhalten (siehe Geforce256-Geforce2GTS in HW T&L ect.)

Bei Preis/Leitung könnte der Geforce6800GT (16Pipes) sehr interessant werden, billig und hoffentlich auch in der Retail Variante ein OC Meister, sodass man fast an Ultra Niveau kommt.

Gruss
Roadkill

P.S. Sorry für die Fanboy Beleidigungen

ow
2004-05-05, 19:52:21
.

murtz
2004-05-05, 19:52:27
Original geschrieben von Neutral
Wow wirklich wieder ein krasser ATI Fans schlagen auf nVidia fans ein.

Jetzt noch zusammen mit dem HL2 ist auf Sys X schneller als auf Y, dann haben wir den 3. Weltkrieg.
Etwa mit diesem Statement von neowin auf der WinHec:

http://www.neowin.net/events/index.php?cat=2

"The demo was very impressive but was not a touch on the demo by Gabe Newell from Valve. This stole the whole keynote to actually see some new footage from Half Life 2. Again we got the whole video which is approximately 3 minutes long and as soon as we find somewhere with firewire we’ll get it on here asap because it’s one to watch!
Gabe claimed the X800 is 40% faster than the GeForce 6800 for Half Life 2 and confirmed that we’ll see Half Life 2 this summer."

r@h
2004-05-05, 19:53:05
Original geschrieben von dildo4u
hab ick auf seite 41 schon gepostet Ob das wohl auch für eine für SM3 compilierte Version von HL2 gelten würde ?
Vermute aber mal, dass Valve dies wohl nicht zulassen werden wird !
:D

Razor

Godmode
2004-05-05, 19:53:11
Gabe redet ja wirklich so als wär die 6800 Schrott :( naja man kann schon fast sagen das ist der verlängerte Marketing Arm von ATI, was bei NV vielleicht John Carmack ist!!

Zum Shader Problem bei der 6800, ich wette wenn die Treiber final sind und wenn man bei ATI irgendwie die Stageoptmierung beim AF ausschalten kann, wird die 6800 sicherlich so schnell sein wie die ATI Karten!!

Was mir einfach nicht scheckt ist, das die X800 beim zuschalten vom AF fast nix verliert und deswegen glaube ich, dass die Stageoptmierung bei ATI diese mehr Performace bringt! In der PCGH schrieben sie, das man diese bei der X800 nicht auschalten können hat.

1-7 wird also nur Bi gefiltert und dem sollte man auf den Grund gehen, wieviel Performance das nun bringt.

edit: hab jetzt Leos Artikel bezüglich AF nochmals studiert und darin schreiben sie eindeutig das Stageoptimierung auf Schicht 1-7 Optimierung off war!! Kann mir mal erklären was die in der PCGH da gemacht haben, weil sie diese Optimierung nicht ausschalten konnten?

MikBach
2004-05-05, 19:56:45
Original geschrieben von MarcWessels
Bitte???

Das soll jetzt kein Geflame sein aber das geht an Dich als auch an die Leute, die von Geschwindigkeitsvorteieln der X800XT im einsteligen Bereich sprechen-> Brille gefällig?! Wir haben hier Geschwindigkeitsvorteile im zweistelligen bis DREIstelligen Bereich für ATI! "FarCry" bis zu 200%, "UT" 36 - 47%, "Call of Duty" bis zu 30% (wenn man selbstverständlich die brilineare Optimierung des NV40 abschaltet!), "Tomb Raider AOD" 82%, "Homeworld 2" 50% und bei den restlichen Spielen meist etwa 15% gegenüber der 6800UE!

Da ich nicht den GANZEN Thread verfolgt habe, kannst du mir sagen, wo du die Werte her hast?

Das mit FarCry glaube ich eher nicht, da ich bis jetzt nur einen Vorteil von max. 100% gesehen habe(Chip,PCGH).


@Radeonator

Sonst geht es dir aber gut?

seahawk
2004-05-05, 19:58:21
Original geschrieben von ow
*g*
Ich bin gespannt, welcher ATi-Generation HL2 nun endlich beiliegen wird. ;D
*scnr*

R500 :D

MarcWessels
2004-05-05, 20:05:16
Original geschrieben von AYAlf
recht hast du!!!

es interessiert bei ut2k4 keine sau wie geil die grafik ist... wenn man erst mal im mp spielt. dann schaltet man ehh aelle features ab. damit die performanz stimmt.

Das sehe ich anders. Die Performance muß schon im SP stimmen und unendlich hohe Frameraten kannst Du ohnehin nicht erreicehn, da das Display limitiert, was in nochmal verstärktem Maße für TFT-User gilt. Wenn dann also genügend Leistung übrig ist, warum in aller Welt sollte man nicht maximala Spieledetails und wenn DANN noch was übrig ist, AF und gegebenenfalls AA einsetzen?

dildo4u
2004-05-05, 20:05:41
Original geschrieben von r@h
Ob das wohl auch für eine für SM3 compilierte Version von HL2 gelten würde ?
Vermute aber mal, dass Valve dies wohl nicht zulassen werden wird !
:D

Razor natürlich nicht oder denkst du ATI zahlt 6millionen "Entwicklungshilfe" umsonst jeder hat das sein pferd im stall ati HL2 nvidia Doom3 das gute für nvidia Doom3 is opengl also das kommt dem NV40 sher entgegen zum glück für NV noch mal so ein reinfall wie beim Way ist meant to be played titel Farcry kann man sich nicht erlauben

Godmode
2004-05-05, 20:31:07
Ich hab mir die Filtering Vergleiche ohne AF und mit 2X AF nochmal angesehen und festgestellt das bei ATI so komischiche Segmentierungen zu sehen sind! Von was kommt das?

AF 0X unter D3D:

http://www.3dcenter.org/artikel/r420_benchmarks/af-test_xt_d3d_af00.php X800

http://www.3dcenter.org/artikel/r420_benchmarks/af-test_68_d3d_af00.php 6800

AF 2X unter D3D:

http://www.3dcenter.org/artikel/r420_benchmarks/af-test_xt_d3d_af02.php X800

http://www.3dcenter.org/artikel/r420_benchmarks/af-test_68_d3d_af02.php 6800

macht mal jeweils beide Bilder groß und vergleicht! Bei ATI sieht man diese komischen Striche!!

Wirkt sich das auf die IQ aus? oder ist das egal?

PS: kann man den 16 X AA Mode bei Nvidia unter OGL nützen? Quallität sieht verdammt gut aus, aber von der Performance steht nix da, wie schnell der ist!

MikBach
2004-05-05, 20:33:57
Original geschrieben von dildo4u
natürlich nicht oder denkst du ATI zahlt 6millionen "Entwicklungshilfe" umsonst jeder hat das sein pferd im stall ati HL2 nvidia Doom3 das gute für nvidia Doom3 is opengl also das kommt dem NV40 sher entgegen zum glück für NV noch mal so ein reinfall wie beim Way ist meant to be played titel Farcry kann man sich nicht erlauben

Du willst doch nicht etwa JC die Objektivität abstreiten, welche er oft schon bewiesen hat!
ER holt alles aus jeder Hardware raus. Nur wird das immer komplizierter.
Wenn ich mir die Benchmarkwerte von der PCGH ansehe, weiss ich nicht, ob OpenGL immer noch von Nvidia dominiert wird.

1280x1024 4xAA 8:1AF

COD:
X800XT 85fps GF6800U 78fps

Elite Force 2
X800XT 96fps GF6800U 83fps

Mehr OGL-Spiele habe sie nicht getestet.

Godmode
2004-05-05, 20:35:00
Original geschrieben von MikBach
Du willst doch nicht etwa JC die Objektivität abstreiten, welche er oft schon bewiesen hat!
ER holt alles aus jeder Hardware raus. Nur wird das immer komplizierter.
Wenn ich mir die Benchmarkwerte von der PCGH ansehe, weiss ich nicht, ob OpenGL immer noch von Nvidia dominiert wird.

1280x1024 4xAA 8:1AF

COD:
X800XT 85fps GF6800U 78fps

Elite Force 2
X800XT 96fps GF6800U 83fps

Mehr OGL-Spiele habe sie nicht getestet.

PCGH konnte die Stageoptimierung bei ATI nicht auschalten!


Zitat aus PCGH06/04 Seite 54:

"Neben einer generellen Winkelabhängligekeit (ähnlich dem NV40), die nicht zu deaktiven ist, gibt es noch weitere Optimierungen. Forciert man über den Catalyst AF, so wird nur die Texturstufe 0 TRI gefiltert. Alle anderen Texturstufen kommen lediglich den minderweritgen BI Filter ab. Leider lässt sich mit den uns zur Verfügung stehenden Mitteln diese Optimierung nicht abschalten (normalerweise helfen Atuner oder Rtool). Deshalb sind die folgenden Benches mit Vorsicht zu genießen, da sie eigentlich ein zu positives Bild zeichnen - zumindest beim Einsatzt des AF"

Also ich weiß jetzt das sie diese Rtool nicht verwendet haben, aber keine Ahnung warum! Haben sie diese Tools nicht?

PS: Thilo wenn es Probleme wegen dem Copyright gibt, nehme ich das Posting zurück.

LovesuckZ
2004-05-05, 20:35:11
Das ganze haengt von der Timedemo ab.

MikBach
2004-05-05, 20:36:19
Original geschrieben von bans3i
PCGH konnte die Stageoptimierung bei ATI nicht auschalten!
OK. Ziehen wir die 10% ab, trotzdem ist in etwa Gleichstand.

Demirug
2004-05-05, 20:44:17
Original geschrieben von bans3i
Also ich weiß jetzt das sie diese Rtool nicht verwendet haben, aber keine Ahnung warum! Haben sie diese Tools nicht?

rTool wollte mit dem R420 nicht.

Godmode
2004-05-05, 20:49:02
Original geschrieben von Demirug
rTool wollte mit dem R420 nicht.

Und bei Leo gings oder wie?

MarcWessels
2004-05-05, 20:53:07
Original geschrieben von MikBach
Da ich nicht den GANZEN Thread verfolgt habe, kannst du mir sagen, wo du die Werte her hast?

Das mit FarCry glaube ich eher nicht, da ich bis jetzt nur einen Vorteil von max. 100% gesehen habe(Chip,PCGH).



Die Werte hab' ich größtenteils von xBitlabs, teilweise von Digit-Life. Den FarCry-Wert von 200% hab ich von hardtecs4U und zwar geht's drt um die niedrigste Framerate, NICHT um die durchschnittliche. Die 6800U brachte 8fps, während die X800XT 24fps erreichte. ;)

Einschränkend muß man zwar hinzufügen, daß der 60er statt des 61er Treibers verwendet wurde, was aber bei den ganzen Darstellungsbugs, die der 61.11er mit sich brachte, legitim sein sollte.


Nochmal zu den Texturestageoptimierungen von ATI: Wie kommt Ihr auf Größenordungen von 10% oder noch mehr?

MikBach
2004-05-05, 20:58:09
Original geschrieben von MarcWessels
Nochmal zu den Texturestageoptimierungen von ATI: Wie kommt Ihr auf Größenordungen von 10% oder noch mehr?

Weniger wird es nicht sein, aber wennn es dich beruhigt, ATI ist trotzdem vorne.

PS bist du nicht bisschen zu sehr auf der Seite von ATI. Du suchst dir die besten Benchmarkergebnisse aus. Ich könnte auch welche finden, wo der Nv40 schneller ist.

Demirug
2004-05-05, 20:59:40
Original geschrieben von bans3i
Und bei Leo gings oder wie?

AFAIK hat Leo in der Registry von Hand gefummelt. Wenn du allerdings mehr Details zum Testablauf der PCGH wissen willst musst du Thilo fragen weil ich nicht weiss was für die Öffentlichkeit bestimmt ist und was nicht.

ShadowXX
2004-05-05, 21:00:07
Original geschrieben von bans3i
PCGH konnte die Stageoptimierung bei ATI nicht auschalten!


Zitat aus PCGH06/04 Seite 54:

"Neben einer generellen Winkelabhängligekeit (ähnlich dem NV40), die nicht zu deaktiven ist, gibt es noch weitere Optimierungen. Forciert man über den Catalyst AF, so wird nur die Texturstufe 0 TRI gefiltert. Alle anderen Texturstufen kommen lediglich den minderweritgen BI Filter ab. Leider lässt sich mit den uns zur Verfügung stehenden Mitteln diese Optimierung nicht abschalten (normalerweise helfen Atuner oder Rtool). Deshalb sind die folgenden Benches mit Vorsicht zu genießen, da sie eigentlich ein zu positives Bild zeichnen - zumindest beim Einsatzt des AF"

Also ich weiß jetzt das sie diese Rtool nicht verwendet haben, aber keine Ahnung warum! Haben sie diese Tools nicht?

PS: Thilo wenn es Probleme wegen dem Copyright gibt, nehme ich das Posting zurück.

ääähhmmm....unter OGL greift die Stage-Optimierung nicht...da wird immer "richtig" auf allen Stages gefiltert...(steht auch IQ-Qualitest des reviews)

Die OGL Ergebnisse kann man deshalb direkt vergleichen...

Zum rTool...Leo hatte eine neuere Verion...dire dazu mit R300 (???) als Parameter gestartet werden mus....dann funktionierts...

Godmode
2004-05-05, 21:03:18
Ich hab mir jetzt mal das Review bei Chip.de angesehen zum 6800UE und muss mich echt wundern wie Nvidia so dumm sein kann, diesen Idoten ein Review Sample zu geben? Bei denen ist die Ultra meistens schneller als die UE!! Wie gibts den sowas?

@MarcWessels

Eine 9800XT verliert ohne diese Stageoptmierung zwischen 10-15 Prozent in FarCry und Halo. Quelle PCGH 06/04

dildo4u
2004-05-05, 21:05:28
OT:Ah da sind wir wieder NEWS zu wakü Gainward nix mit 550chip 450 sinds*g*


Früher - als alles besser war - gab es Grafikkarten, die einen Preis um die 1500 DM erreicht haben. In der heutigen Zeit sind sie rar geworden, aber es gibt sie noch. So zum Beispiel Gainwards neuestes Produkt, eine wassergekühlte GeForce 6800 Ultra für den Preis von sagenhaften 899 Euro.


Die Gainward CoolFX PowerPack! Ultra/2600 “Golden Sample” kommt mit einem Chiptakt von 450 MHz und einem Speichertakt von 1200 MHz auf den Markt. Mitte Mai soll das Produkt auf den Markt kommen


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/mai/wassergekuehlte_6800_ultra_899_euro/

Godmode
2004-05-05, 21:07:01
Original geschrieben von ShadowXX
ääähhmmm....unter OGL greift die Stage-Optimierung nicht...da wird immer "richtig" auf allen Stages gefiltert...(steht auch IQ-Qualitest des reviews)

Die OGL Ergebnisse kann man deshalb direkt vergleichen...

Zum rTool...Leo hatte eine neuere Verion...dire dazu mit R300 (???) als Parameter gestartet werden mus....dann funktionierts...

Ich hab mich jetzt überzeugt das bei Leo alles mit rechten Dingen zugegangen ist. Hab den Artikel gestern etwas zu schnell gelesen :) Super Artikel Leo und Ahts und andere!! :up:

Ist 3D-Center eigentlich die einzige Site die die Optimierungen bei ATI ausgeschaltet hat?

Könnt ihr nochmal auf mein obigiges Posting eingehen, wo ich frage warum bei ATI solche Striche zu sehen sind?


edit: auf das hier::

Ich hab mir die Filtering Vergleiche ohne AF und mit 2X AF nochmal angesehen und festgestellt das bei ATI so komischiche Segmentierungen zu sehen sind! Von was kommt das?

AF 0X unter D3D:

http://www.3dcenter.org/artikel/r420_benchmarks/af-test_xt_d3d_af00.php X800

http://www.3dcenter.org/artikel/r420_benchmarks/af-test_68_d3d_af00.php 6800

AF 2X unter D3D:

http://www.3dcenter.org/artikel/r420_benchmarks/af-test_xt_d3d_af02.php X800

http://www.3dcenter.org/artikel/r420_benchmarks/af-test_68_d3d_af02.php 6800

macht mal jeweils beide Bilder groß und vergleicht! Bei ATI sieht man diese komischen Striche!!

Wirkt sich das auf die IQ aus? oder ist das egal?

PS: kann man den 16 X AA Mode bei Nvidia unter OGL nützen? Quallität sieht verdammt gut aus, aber von der Performance steht nix da, wie schnell der ist

san.salvador
2004-05-05, 21:11:51
edit: Bin ein Depp. ;D

Godmode
2004-05-05, 21:13:33
Original geschrieben von san.salvador
Check mal die Links, die sind unbrauchbar.

hab ich gleich noch gefixt!

MikBach
2004-05-05, 21:14:59
Original geschrieben von san.salvador
edit: Bin ein Depp. ;D

...

Iceman346
2004-05-05, 21:29:17
Original geschrieben von bans3i
Könnt ihr nochmal auf mein obigiges Posting eingehen, wo ich frage warum bei ATI solche Striche zu sehen sind?


Schau mal genau hin, diese Striche sind auch in ähnlicher Form (nur nicht ganz so deutlich) auch bei Nvidia zu sehen.
Worans genau liegt weiß ich nicht, ich würde schätzen, dass die bekannten Filtertricks von ATi was damit zu tun haben.
In Spielen sieht man nichts derartiges.

Winter[Raven]
2004-05-05, 21:37:18
Die Gainward CoolFX PowerPack! Ultra/2600 “Golden Sample” kommt mit einem Chiptakt von 450 MHz und einem Speichertakt von 1200 MHz auf den Markt. Mitte Mai soll das Produkt auf den Markt kommen


Wäre ich an deiner Stelle und hätte keine Ahnung von Gainward Grakas würd ich ganz leise sein;). Der chip wird mit 450 mhz als STANDART angesteuert, man kann aber die Expertenfunktion einschalten wodurch der Chip dann sicherlich mit 550 mhz laufen wird.

dildo4u
2004-05-05, 21:39:33
Original geschrieben von Winter[Raven]
Wäre ich an deiner Stelle und hätte keine Ahnung von Gainward Grakas würd ich ganz leise sein;). Der chip wird mit 450 mhz als STANDART angesteuert, man kann aber die Expertenfunktion einschalten wodurch der Chip dann sicherlich mit 550 mhz laufen wird. wenns 450mhz standart wäre wärs eine 6800UE Warum sollte man das hauptfeauture nähmlich die übertaktung nicht erwähnen?

MikBach
2004-05-05, 21:41:28
Original geschrieben von Winter[Raven]
Der chip wird mit 450 mhz als STANDART angesteuert, man kann aber die Expertenfunktion einschalten wodurch der Chip dann sicherlich mit 550 mhz laufen wird.

Quellen, Beweise?
Ich glaube nicht, dass 100 Mhz noch so locker drin sind.

dildo4u
2004-05-05, 21:48:06
in der das CoolFX in der Bezeichnung fehlt, kommt mit einem Chiptakt von 430 MHz auf den Markt. Auch der Speicher ist ein wenig geringer getaktet, aber immer noch höher als beim Referenzmodell der GeForce 6800 Ultra: 1150 MHz. Diese Karte soll für „erschwingliche” 599 Euro erhältlich sein.
Beide Modelle sind hier als eine Art Mischung aus GeForce 6800 Ultra und 6800 Ultra Extreme anzusehen, da sie in ihren Taktrate sowohl beim Speicher- und Chiptakt abweichen. Ob die paar MHz diesen Preis rechtfertigen, ist alleine die Entscheidung des Kunden.
also mit wakü 50mhz mher und ohne 30mhz von 400mhz ausgehend

Godmode
2004-05-05, 21:52:38
Also beim Inq habens gestern schon geschrieben, dass 450 Standard Takt ist und mit der Expert Funktion den nochmal mehr drinnen sein wird.

dildo4u
2004-05-05, 21:54:38
Original geschrieben von bans3i
Also beim Inq habens gestern schon geschrieben, dass 450 Standard Takt ist und mit der Expert Funktion den nochmal mehr drinnen sein wird. 100mhz mher? eher nicht

Godmode
2004-05-05, 21:59:22
Original geschrieben von dildo4u
100mhz mher? eher nicht

Dazu kenn ich mich beim OC zu wenig gut aus! Aber vielleicht kann man das ja durch Erhöhung der Core Spannung erreichen, ich weiß es nicht.

dildo4u
2004-05-05, 22:01:44
Original geschrieben von bans3i
Dazu kenn ich mich beim OC zu wenig gut aus! Aber vielleicht kann man das ja durch Erhöhung der Core Spannung erreichen, ich weiß es nicht. möglich wär schon aber von GW schon mutig so eine karte dann mit 2 jahre garantie auszuliefern denk mal kaum das sie 2 jahre testen konnten ob so eine karte das dauerhafft durchhält und umso komplexer der chip um so eher wirkt sich oc und spannungserhöhung negativ aus stichwort lekströme

Godmode
2004-05-05, 22:14:07
Original geschrieben von dildo4u
möglich wär schon aber von GW schon mutig so eine karte dann mit 2 jahre garantie auszuliefern denk mal kaum das sie 2 jahre testen konnten ob so eine karte das dauerhafft durchhält und umso komplexer der chip um so eher wirkt sich oc und spannungserhöhung negativ aus stichwort lekströme

Man müsste dazu genau wissen wie gut IBM diese Leckströme beherrscht, aber ich denk mal GW wird schon wissen was sie tun.

Uller
2004-05-05, 22:19:16
Kann mal einer erklären, warum die Benchmarkergebnisse von Test zu Test so EXTREM schwanken?
Siehe X-Bit Labs, CoD:
http://www.xbitlabs.com/articles/video/display/r420-2_5.html
Im Vergleich zur X800XT verliert die 6800 Ultra ohne Tri-Optimierung jeden Test, in UT2003 und UT2004 dagegen liegt die 6800 Ultra teilweise vorne, obwohl in allen anderen Tests bei UT die ATi weit vorne lag!?!

Godmode
2004-05-05, 22:24:17
War einfach ne Frechheit von ATI das Leo kein Sample bekommen hat. Man darf Saphire echt danken, dass sie wenigstens ne Pro hergezaubert haben. Es ist schade dass es keine XT war, aber was solls. Wär echt interessant die XT mal ohne Optimierung zu testen!!

Aber Chip die Obernaps von den Obernaps bekommen ne XT und ne 6800UE also ich find das einfach mal :down:

Aber klar die wissen das Chip für die ganzen DAUs schreibt und somit eine viel größere Kundengruppe anspricht als 3DC.

was ich am lustigsten finde ist, dass Chip nach dem Performance Sprung mit dem neuen Treiber gleich fett Cheat schreit :)

dildo4u
2004-05-05, 22:27:22
http://www.xbitlabs.com/images/video/r420-2/pkiller_1280_candy.gif

übrigenz ein weiters powerd by nvidia game

Tester
2004-05-05, 22:27:36
Ein neuer Test bei PC-Welt:

http://www.pcwelt.de/tests/hardware-tests/grafikkarte/39786/4.html

Godmode
2004-05-05, 22:32:56
Original geschrieben von Tester
Ein neuer Test bei PC-Welt:

http://www.pcwelt.de/tests/hardware-tests/grafikkarte/39786/4.html

Wieder ein weiterer Artikel für die Tonne :)

MikBach
2004-05-05, 22:35:06
Original geschrieben von bans3i
Wieder ein weiterer Artikel für die Tonne :)
Dann sag mal welche Artikel du für glaubwürdig hälst.

1davor
2004-05-05, 22:35:26
Original geschrieben von bans3i
Wieder ein weiterer Artikel für die Tonne :)

Japp!

2Gas
2004-05-05, 22:36:12
Original geschrieben von MikBach
Dann sag mal welche Artikel du für glaubwürdig hälst.

3DC

Godmode
2004-05-05, 22:36:14
Was heißt glaubwürdig, die gehen auf nix ein AA Af alles das selbe :)

Der beste Artikel kommt von 3DC und ich bin schwer entäuscht das ATI Leo keine XT gegeben hat :down:

edit: smily auf down geändert :)

MikBach
2004-05-05, 22:39:01
Original geschrieben von 2Gas
3DC

Full Ack, aber die PCGH halte ich auch für sehr glubwürdig.
Da unterscheiden sich doch die Benchmarks, zumindest bei Spellforce.

Gas3t
2004-05-05, 22:41:33
Original geschrieben von MikBach
Full Ack, aber die PCGH halte ich auch für sehr glubwürdig.
Da unterscheiden sich doch die Benchmarks, zumindest bei Spellforce.

Hab die PCGH leider nicht.

Die Spellforce-Ergebnisse würden mich aber interessieren. Wie sieht denn das Verhältnis von 800XT zu 6800Ultra aus?

Godmode
2004-05-05, 22:44:04
Original geschrieben von MikBach
Full Ack, aber die PCGH halte ich auch für sehr glubwürdig.
Da unterscheiden sich doch die Benchmarks, zumindest bei Spellforce.

Ich Koffer die hab ich ganz vergessen :) Ja die sind auch nicht schlecht, ich glaub Demirug hat mit Thilo für das Review zusammen gearbeitet!

MikBach
2004-05-05, 22:44:56
Original geschrieben von Gas3t
Hab die PCGH leider nicht.

Die Spellforce-Ergebnisse würden mich aber interessieren. Wie sieht denn das Verhältnis von 800XT zu 6800Ultra aus?

etwa Gleichstand.
1280x1024 4xAA 8xAF

NV40: 35 fps
R420: 33 fps

Godmode
2004-05-05, 22:44:57
Kann mir wer erklären was das Subsurface Demo von ATI zeigen soll? Was ist den Subsurface überhaupt?

Gas3t
2004-05-05, 22:45:03
Original geschrieben von Gas3t
Hab die PCGH leider nicht.

Die Spellforce-Ergebnisse würden mich aber interessieren. Wie sieht denn das Verhältnis von 800XT zu 6800Ultra aus?

PS: Sind die Unterschiede auch so stark wie beim 3DC-Test?

MikBach
2004-05-05, 22:47:43
Original geschrieben von Gas3t
PS: Sind die Unterschiede auch so stark wie beim 3DC-Test?
3DCenter hatte nur eine "PRO" mit 12 Pipelines.

Gas3t
2004-05-05, 22:51:58
Original geschrieben von MikBach
etwa Gleichstand.
1280x1024 4xAA 8xAF

NV40: 35 fps
R420: 33 fps

WoW.

Bei 3DC waren es:

NV40Ultra: 23,3 fps
R420Pro: 11,8 fps

im ähnlichen Setting (1280x1024 4xAA 16xAF).

Das sind 50% bei der NV40 und 180% bei der r420 mehr (PCGH zu 3DC). Wo liegt der Unterschied? Zum einen bei NV und zum anderen bei ATI?

Godmode
2004-05-05, 22:51:59
Original geschrieben von Gas3t
PS: Sind die Unterschiede auch so stark wie beim 3DC-Test?


Ultra TRI Opt Aus: 74|59|35

Ultra TRI Opt An: 74|55|33

Ultra HQ Full TRI: 74|54|32

XT AF Opt: 63|46|33

Settings: 1024*768|1024+2AA+4AF|1280*1024+4AA+8AF

Ich glaub die XT mag kein Spellforce oder es gibt Treiberprobs.

NV40 ist in Setting eins Bandbreiten CPU limitiert.

MikBach
2004-05-05, 22:58:01
Original geschrieben von Gas3t
WoW.

Bei 3DC waren es:

NV40Ultra: 23,3 fps
R420Pro: 11,8 fps

im ähnlichen Setting (1280x1024 4xAA 16xAF).

Das sind 50% bei der NV40 und 180% bei der r420 mehr (PCGH zu 3DC). Wo liegt der Unterschied? Zum einen bei NV und zum anderen bei ATI?

Das würde ich auch gerne wissen.
Vielleicht kann tb(Thilo Bayer) die Unterschiede erklären.=), aber wie gesagt war "nur" eine Pro, und keine XT.

EDIT: Sorry, aber die ganzen Benchmarks gehen auf den Geist.
Die PCGH hat X800XT gegen NV40U gebencht.:bonk:

Gas3t
2004-05-05, 22:59:24
Original geschrieben von MikBach
Das würde ich auch gerne wissen.
Vielleicht kann tb(Thilo Bayer) die Unterschiede erklären.=), aber wie gesagt war "nur" eine Pro, und keine XT.

Das allein kanns nicht gewesen sein.

san.salvador
2004-05-05, 23:01:31
Leo bencht auch auf einem P4 2,53 Ghz. Ich nehm an die PCGH hat mit einem stärkeren Rechner getestet.

dildo4u
2004-05-05, 23:02:16
Original geschrieben von san.salvador
Leo bencht auch auf einem P4 2,53 Ghz. Ich nehm an die PCGH hat mit einem stärkeren Rechner getestet. jo wesentlich stärker A64 3400 mit 1GB ram

Godmode
2004-05-05, 23:09:50
Zitat zu Spellforce von Leo:

"Anzumerken wäre noch, daß die benutzten ATi-Treiber in diesem Spiel unter 1024x768 partout kein Anti-Aliasing darstellen wollten, weswegen wir für diese Vergleiche bei den Radeon-Karten die Auflösung von 1152x864 wählten. Diese treten diesen Vergleich also mit einem - selbstverschuldeten - Nachteil in dieser Auflösung an, da die nVidia-Karten natürlich weiterhin unter der gebräuchlicheren Auflösung von 1024x768 vermessen wurden."

InsaneDruid
2004-05-05, 23:16:28
Hmpf.. also ein Äpfel vs Birnen Bench.. IMHO sinnbefreit. Dann hätte man beide auf 1152 nehmen sollen.

kmf
2004-05-05, 23:17:20
Original geschrieben von bans3i
PCGH konnte die Stageoptimierung bei ATI nicht auschalten!


Zitat aus PCGH06/04 Seite 54:

"Neben einer generellen Winkelabhängligekeit (ähnlich dem NV40), die nicht zu deaktiven ist, gibt es noch weitere Optimierungen. Forciert man über den Catalyst AF, so wird nur die Texturstufe 0 TRI gefiltert. Alle anderen Texturstufen kommen lediglich den minderweritgen BI Filter ab. Leider lässt sich mit den uns zur Verfügung stehenden Mitteln diese Optimierung nicht abschalten (normalerweise helfen Atuner oder Rtool). Deshalb sind die folgenden Benches mit Vorsicht zu genießen, da sie eigentlich ein zu positives Bild zeichnen - zumindest beim Einsatzt des AF"

Also ich weiß jetzt das sie diese Rtool nicht verwendet haben, aber keine Ahnung warum! Haben sie diese Tools nicht?

PS: Thilo wenn es Probleme wegen dem Copyright gibt, nehme ich das Posting zurück.

Alle haben ihre PCGH schon. Selbst an der Tankstelle liegt sie schon aus. Nur ich als Abonnent warte immer noch drauf. :(

Bin schon so gespannt auf das Review.

san.salvador
2004-05-05, 23:17:37
Original geschrieben von InsaneDruid
Hmpf.. also ein Äpfel vs Birnen Bench.. IMHO sinnbefreit. Dann hätte man beide auf 1152 nehmen sollen.
Jo, zumindest zusätzlich.

Godmode
2004-05-05, 23:27:26
Original geschrieben von InsaneDruid
Hmpf.. also ein Äpfel vs Birnen Bench.. IMHO sinnbefreit. Dann hätte man beide auf 1152 nehmen sollen.

Finde ich nicht! Die Ultra muss im Setting 3 auch immer mit 8X AA(MS+SS) herhalten, weil sie kein 6X AA haben wie ATI.

Man hätte die Benches gänzlich ohne AA machen können, aber dann würde wohl die 2,54 GHz CPU limitieren.

san.salvador
2004-05-05, 23:30:39
Wieso hat Leo eigentlich nicht mal ohne AA/AF gebencht?

Sorry falls das im Review steht, dann hab ichs übersehen.

MikBach
2004-05-05, 23:31:31
Original geschrieben von san.salvador
Jo, zumindest zusätzlich.

Recht hast du, aber wenn ich mir die Benchmarkergebnisse ansehe, 1600x1280 fällt der NV40U noch schlechter aus.

san.salvador
2004-05-05, 23:37:09
OT:
Wieso hab ich den Status Glücksind?

edit: und wieso isser jetzt wieder weg? Ich bin verwirrt.....

dildo4u
2004-05-05, 23:39:39
Original geschrieben von san.salvador
OT:
Wieso hab ich den Status Glücksind?

edit: und wieso isser jetzt wieder weg? Ich bin verwirrt..... http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=66842&highlight=gl%FCckskind

InsaneDruid
2004-05-05, 23:44:31
[SIZE=1]Original geschrieben von bans3i
Finde ich nicht! Die Ultra muss im Setting 3 auch immer mit 8X AA(MS+SS) herhalten, weil sie kein 6X AA haben wie ATI.


Nunja.. IMHO ist der vorhandene FSAA Modus+Implementation eine Sache, (weil nicht änderbar) das Nichtfunktionieren unter einer Auflösung ne andere. Außerdem wurde ja mit Mode 1 und 2 schon besser vergleichbare Benches gefahren. Aber so noch eine zusätzliche Nichtvergleichbarkeit einbauen.. dann lieber ein "na" für ATI in dem Mode.

nagus
2004-05-05, 23:50:20
Original geschrieben von dildo4u
http://www.xbitlabs.com/images/video/r420-2/pkiller_1280_candy.gif

übrigenz ein weiters powerd by nvidia game


nvidia @ it´s best...

san.salvador
2004-05-05, 23:56:52
Original geschrieben von dildo4u
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=66842&highlight=gl%FCckskind
Okay, danke. Ich lese zwar täglich hier im Forum, meist sogar stundelang, hatte aber nur selten das Bedürfnis mich zu äußern. Das merkt, gell? :)

@nagus: Da kann einem ja schlecht werden....

fghnfg
2004-05-06, 00:03:09
Original geschrieben von dildo4u
http://www.xbitlabs.com/images/video/r420-2/pkiller_1280_candy.gif

übrigenz ein weiters powerd by nvidia game

Wenns bei Doom3 auch so ausschaut,dann ;D

perforierer
2004-05-06, 00:13:43
Original geschrieben von InsaneDruid
Hmpf.. also ein Äpfel vs Birnen Bench.. IMHO sinnbefreit. Dann hätte man beide auf 1152 nehmen sollen.

Jupp. Oder komplett auf den Vergleich verzichten.

Godmode
2004-05-06, 00:15:00
Original geschrieben von nagus
nvidia @ it´s best...

Auf was willst du hinaus? Das der NV40 ohne Optimierung viel verliert? Ich möcht nicht wissen wieviel ATI bei der XT verliert wenn man die AF Opti ausschaltet!!

Und du musst immer das raussuchen wo der NV40 besonders schlecht dasteht! Wirfst einfach ein Posting in den Raum mit nem Benchmark und schreibst was sinnloses dazu. Es gibt genug Benches wo der NV40 vorne ist und auch genug wo der R420 vorne ist, also beschränk dich nicht immer auf irgendwelche Einzelbenchmarks.

MadMan2k
2004-05-06, 01:10:03
Original geschrieben von fghnfg
Wenns bei Doom3 auch so ausschaut,dann ;D
...braucht keine Sau die neue Generation.
1280x1024 + 4AA/ 16AF, 72fps @ R9800XT bzw. 59fps @ FX5950Ultra
was will man mehr?

Addy
2004-05-06, 01:20:37
Original geschrieben von MadMan2k
was will man mehr?

noch mehr Speed & Features & Bildquali :D

MarcWessels
2004-05-06, 03:43:24
Original geschrieben von bans3i
@MarcWessels
Eine 9800XT verliert ohne diese Stageoptmierung zwischen 10-15 Prozent in FarCry und Halo. Quelle PCGH 06/04

Öhö? Na, dann ist meine R9700Pro @ 432/337 wohl zu lahm um die Unterschiede aufzuzeiegn... Ich komm mit FRAPS bei FarCry auf exakt dieseleben Frameraten einbrüche von 1xAF zu 16xAF - immer 24%, ob nun mit oder ohne Stageoptimierung.

Liszca
2004-05-06, 04:21:01
Original geschrieben von deekey777
Eindeutig besseres AF? Wayne interessiert? Heutzutage zählt AA und AF gemeinsam!

das sehe ich ganz anders, wenn ich demnächst mal mein tft habe ist mir antialiasing vorerst mal bei 1280x1024 nicht so wichtig wie der anisotrope filter.

Sphinx
2004-05-06, 07:13:58
Original geschrieben von Liszca
das sehe ich ganz anders, wenn ich demnächst mal mein tft habe ist mir antialiasing vorerst mal bei 1280x1024 nicht so wichtig wie der anisotrope filter.

Hab nen guten 17" TFT und muss zugeben das mir das neue Temporal AA (Also wirklich ein guter Schritt in die richtige Richtung) und AF sehr am Herzen liegen.

ShadowXX
2004-05-06, 07:23:19
Original geschrieben von Liszca
das sehe ich ganz anders, wenn ich demnächst mal mein tft habe ist mir antialiasing vorerst mal bei 1280x1024 nicht so wichtig wie der anisotrope filter.

Glaube mir...auch bei 1280x1024 kann man den Unterschied zwischen AA On und AA Off sehr deutlich sehen, vielleicht gerade weils ein TFT ist...

(Hab selber ein 17" TFT mit genannter nativer Auflösung und bekomme fast Augenkrebs, wenn ich AA nicht zuschalten kann...und genau diese native Auflösung ist auch der Grund warum ich eine der beide neuen Karten brauche....)

Quasar
2004-05-06, 07:54:13
Original geschrieben von Gasl
Dass die Ps1.1 Shader aber wiederum nur mit FP16 gerechnet werden, ist nVidia zuzuschreiben.

k.A. ob das schon gepostet wurde, aber es sind seitdem 15 Seiten vergangen.
Shader 1.1 kommen mit seeehr sehr geringer Genauigkeit aus. FP16 wäre da schon ziemlicher Overkill.

Und für die Spec ist M$ verantwortlich.

Quasar
2004-05-06, 07:58:01
Original geschrieben von RyoHazuki
Und wenn ich mich recht erinnere ist der NV40 eine völlig neuentwicklung.


Ergo: Das bedeutet für mich, das die karte noch sehr viel optimierung braucht. ---> Da neue architektur. Man kann das ganze doch ganz köstlich zwischen dem Forceware 60.72 und dem 61.11 betrachten. Alleine Call Of Duty 20% Schneller, manch andere auch 5% langsamer. Aber wenn Nvidia erstmal fertig ist. Sollten 10% - 20% in vielen spielen mehr sein. Vorallem bei farCry glaube ich noch "MEHR" denn zurzeit st das unter aller sau.

So neu, wie nV es verkauft, ist der nV40 auch nicht... Aber ein bißchen dürfte per Treiber noch drin sein, wobei ich den Eindruck habe, daß speziell der OpenGL-Teil der 60er-FW noch ziemlich lahm ist (mit 'ner FX gegengetestet in CoD und Alice).

Quasar
2004-05-06, 07:59:02
Original geschrieben von jfhgd
Die technischen Fakten sprechen eindeutig für den R420!

Welche "technischen Fakten" meinst du damit? Abwärme und MHz? Dann ja. Ansonsten aber eher nicht.

Quasar
2004-05-06, 08:04:32
Original geschrieben von [dzp]Viper
Ich möchte dich bitten, 3Dc nicht zu runter zu machen! Momentan gibt es keinen Unterschied zwischen 3Dc und PS3.0.
Beides wird noch nicht benutzt und wir wissen von beiden noch nicht, was es im endeffekt so richtig bringt!
PS3.0 und 3Dc sind beides sehr nette Sachen - wenn sie den mal eingesetzt werden ;)

Im Prinzip ack.
Nur ein Einwand: den Vorteil von 3dc kann man einfach mit mehr Speicher (512MB) auf der Karte egalisieren, wenn der Developer die Texturen so anlegt, daß auch die höher aufgelösten Normal Maps ohne 3dc optional verwendet werden können, i.e. sie zusätzlich unkomprimiert beilegt. Zudem benötigt 3dc nochmals zusätzliche Instruktionen im PS. Ich bin nicht sicher, aber gerade die FP16_Norm soll ja im nV40 for free sein. Wenn das so richtig ist, könnte es sein, daß gerade bei extensivem Normal-Mapping der NV40 überraschend gut dasteht, trotz fehlendem 3dc.

Um's gerecht zu verteilen: Wenn SM3.0 schlecht implementiert wird, kann es natürlich auch nichts bis negative Performancesprünge bringen.

Quasar
2004-05-06, 08:05:22
Original geschrieben von sfgdfg
Sm3.0 kann nix was nicht auch PS2.0 kann! Ende aus Nikolaus!

Sachlich falsch, bitte setzen. ;)

The_Invisible
2004-05-06, 08:22:36
Original geschrieben von nagus
nvidia @ it´s best...

http://3dcenter.de/artikel/r420_benchmarks/index22.php

ati @ it´s best... ;D

na wo glaubst sind die mehr an fps wohl wichtiger :D

mfg

Quasar
2004-05-06, 08:25:18
Original geschrieben von bans3i
edit: hab jetzt Leos Artikel bezüglich AF nochmals studiert und darin schreiben sie eindeutig das Stageoptimierung auf Schicht 1-7 Optimierung off war!! Kann mir mal erklären was die in der PCGH da gemacht haben, weil sie diese Optimierung nicht ausschalten konnten?

Dasselbe habe ich ja auch schon gewagt nachzufragen - vor allem, _wie_ sichergestellt wurde, daß alle Texturstufen voll-trilinear und anisotrop gefiltert wurden...
aths bot mir daraufhin an, wen Artikel vorzulesen (hat er bis heute nicht gemacht, muss wohl eher rhetorisch gemeint gewesen sein) und verwies mich nochmals auf die Stelle im Artikel wo drinstand, daß die Optimierung deaktiviert worden sei.

Für Volltrottel halte ich die Jungs von der PCGH eigentlich nicht, weswegen es mich ein wenig wunder nimmt, daß hier zwei entgegengesetzte Aussagen im Raum stehen - besonders, wenn in der PCGH auch noch drinsteht, daß in einem Test die X800 20% mehr Füllrate zeigte, als sie sogar rein rechnerisch hätte haben dürfen.

Wäre ATi = nVidia, gäbe es sicherlich schon einige Threads, in denen das CH-Wort vorkommt...?

Lustiger Troll
2004-05-06, 08:25:29
Original geschrieben von Quasar
k.A. ob das schon gepostet wurde, aber es sind seitdem 15 Seiten vergangen.
Shader 1.1 kommen mit seeehr sehr geringer Genauigkeit aus. FP16 wäre da schon ziemlicher Overkill.

Und für die Spec ist M$ verantwortlich.


Lass ihn doch seither habe ich eine Lustige Sig ;D. Genauso wie du hehe, sorry für OT.

Quasar
2004-05-06, 08:28:00
Original geschrieben von ShadowXX
ääähhmmm....unter OGL greift die Stage-Optimierung nicht...da wird immer "richtig" auf allen Stages gefiltert...(steht auch IQ-Qualitest des reviews)

Die OGL Ergebnisse kann man deshalb direkt vergleichen...


Als ich genau aus dem Grund das hier postete, war ich gleich wieder ein Fanboy und die Q3-Engine war schuld, auf die nV so dolle optimeren würde...

http://www.tomshardware.com/graphic/20040504/ati-x800-18.html

The_Invisible
2004-05-06, 08:29:06
Original geschrieben von Quasar
Wäre ATi = nVidia, gäbe es sicherlich schon einige Threads, in denen das CH-Wort vorkommt...?

jo, dann wäre PS/VS3.0 natürlich auch der überhammer und das veraltete PS/VS2.0 sollte doch bitte verschwinden

mfg

perforierer
2004-05-06, 08:32:03
Original geschrieben von The_Invisible
http://3dcenter.de/artikel/r420_benchmarks/index22.php

ati @ it´s best... ;D

na wo glaubst sind die mehr an fps wohl wichtiger :D

mfg

Aber daran denken: die ATI Karte wurde mit einer anderen Auflösung gebencht! (Text über den Charts auch mal lesen :) )

Quasar
2004-05-06, 08:38:52
Original geschrieben von perforierer
Aber daran denken: die ATI Karte wurde mit einer anderen Auflösung gebencht! (Text über den Charts auch mal lesen :) )

Dann mal die Übersicht, wenn man bei nV die höhere Auflösung (1280) ggü. 1152 bei ATi nimmt:


NV40, Setting1 32,4
X800, Setting1 23,3

NV40, Setting2 23,3
X800, Setting2 13,5

NV40, Setting3 Absturz
X800, Setting3 13,2


Oh, jetzt kommt gleich bestimmt "Aber es war doch nur eine Pro" - moment:


NV40, Setting1 32,4
X800, Setting1 33,79

NV40, Setting2 23,3
X800, Setting2 19,58

NV40, Setting3 Absturz
X800, Setting3 19,14


Natürlich nur hochgerechnet mit Faktor 1,46 (pipes*1,33 und 9,5% Taktvorteil und mit Auflösungsvorteil bei ATi =)

perforierer
2004-05-06, 08:53:34
Hehe, nö, dass es eine pro war wissen wir ja alle, dazu hätt ich gar nix gesagt :) Wie die XT performt weiss man halt nicht. Gerade bei nem Spiel auf Basis der Krass Engine ist das nie vorherzusagen :D Bei Aquanox2 sind pro und 6800ultra ja deutlich näher zusammen, und das obwohl sie in der Tat völlig andere Preissegmente bedienen.

Ich wollte nur auf die Auflösung beim 1024er Bench hinweisen, weil ich das als unglücklich empfinde. Mir isses eh wurscht, welche Karte schneller ist, weil ich sie mir ohnehin nicht leisten kann im Moment ;D

Dass der nV40 den Test in Spellforce hier gewinnt ist keine Frage :)

Gdo
2004-05-06, 09:09:53
Original geschrieben von Quasar
Sachlich falsch, bitte setzen. ;)

Bitte zeige mir einen Effekt ! Es ist die Länge der Befehle und nichts anderes.

Jeder Effekt unter PS3.0 ist mit 2.0 auch darstellbar!

Alles andere ist nvidia-Marketing/Fanboy Wunschdenken!

aths
2004-05-06, 09:15:59
Original geschrieben von Quasar
Als ich genau aus dem Grund das hier postete, war ich gleich wieder ein Fanboy und die Q3-Engine war schuld, auf die nV so dolle optimeren würde...NV optimiert(e) aber wirklich extrem doll auf Q3. Nicht nur auf die Engine, auch auf bestimmte Timedemos.

aths
2004-05-06, 09:16:43
Original geschrieben von Gdo
Jeder Effekt unter PS3.0 ist mit 2.0 auch darstellbar!Letztlich kann man jeden Effekt auch durch eine Textur ersetzen (frei nach Demirug zitiert.)

Sphinx
2004-05-06, 09:17:44
aths : lass sie doch alle ,) in ihrem glauben - reine nerven- und zeitverschwendung.

MikBach
2004-05-06, 09:21:05
Original geschrieben von Quasar
Als ich genau aus dem Grund das hier postete, war ich gleich wieder ein Fanboy und die Q3-Engine war schuld, auf die nV so dolle optimeren würde...

http://www.tomshardware.com/graphic/20040504/ati-x800-18.html

PCGH, COD, 1600x1200 4xAA 8xAF

X800XT ca. 65 fps
GF6800U ca. 45 fps

Sind "etwa"Werte, da 2D-Liniendiagramm. :)

LovesuckZ
2004-05-06, 09:21:14
Original geschrieben von Gdo
Jeder Effekt unter PS3.0 ist mit 2.0 auch darstellbar!


Es geht auch alles mit einer CPU, wo ist also der Sinn hinter dieser Aussage?

MikBach
2004-05-06, 09:28:56
Original geschrieben von The_Invisible
und das veraltete PS/VS2.0 sollte doch bitte verschwinden

mfg

Es gibt erst ein paar Spiele, die PS/VS2.0 durchgängig nutzen.
Würde man die Specs vom SM2.0 in einem Spiel bis ans Maximum ausreizen, könnten wir sogar auf R420/NV40 Standbilder bewundern. ;)

Also komm mir bitte nicht mit "veraltet".

ShadowXX
2004-05-06, 09:34:06
Original geschrieben von LovesuckZ
Es geht auch alles mit einer CPU, wo ist also der Sinn hinter dieser Aussage?

Lass es Love....wie Sphinx schon sagte, manche werden es nie kapieren bzw. wollen es nicht kapieren.

Wenn ich aus bestimmten Gründen nicht fast gezwungen wäre ein ATI zu nehmen, würde ich ohne Bedenken sofort zu einer nv40U greifen, auch wenn diese durchgehend 10 bis 20% langsamer wäre (hypothetisch)...

SM3.0 ist schon ne nette sache...und die anderen kleinen Spielereien die nV mit eingebaut hat auch.

Die meisten werden nVs Vorstoss erst würdigen, wenn nv50/r500 rauskommt und dann auch sofort Games mit PS3.0 erhältlich sind...(was dann wirklich nur daran liegt, das nV jetzt schon SM3.0 anbietet).

ShadowXX
2004-05-06, 09:39:51
Original geschrieben von MikBach
Es gibt erst ein paar Spiele, die PS/VS2.0 durchgängig nutzen.
Würde man die Specs vom SM2.0 in einem Spiel bis ans Maximum ausreizen, könnten wir sogar auf R420/NV40 Standbilder bewundern. ;)

Also komm mir bitte nicht mit "veraltet".

Also "durchgängig" benutzt kein einziges Games momenatn das SM2.0 Modell....

Es werden teilweise Eye-Candys von dem einen oder anderen Game mittels SM2.0 realisiert...

Mal was ganz anderes:
Der Vertex Power der X800XT ist ja wesentlich höher als der der 6800Ultra (gegeben aus Takt und höherer Anzahl an Vertex-Pipes)...
Gibt es momentan irgendein Game (auch kommende), wo man diesen Unterschied erkennen kann (bzw. wo es was "bringt"), oder sind diese 6 Vertex-Shader einfach nur "Overkill"...

Gas3t
2004-05-06, 09:43:10
Original geschrieben von Quasar
Dann mal die Übersicht, wenn man bei nV die höhere Auflösung (1280) ggü. 1152 bei ATi nimmt:


NV40, Setting1 32,4
X800, Setting1 23,3

NV40, Setting2 23,3
X800, Setting2 13,5

NV40, Setting3 Absturz
X800, Setting3 13,2


Oh, jetzt kommt gleich bestimmt "Aber es war doch nur eine Pro" - moment:


NV40, Setting1 32,4
X800, Setting1 33,79

NV40, Setting2 23,3
X800, Setting2 19,58

NV40, Setting3 Absturz
X800, Setting3 19,14


Natürlich nur hochgerechnet mit Faktor 1,46 (pipes*1,33 und 9,5% Taktvorteil und mit Auflösungsvorteil bei ATi =)

Dies hat bans3i dazu gepostet (Werte der PCGH):

"Ultra TRI Opt Aus: 74|59|35

Ultra TRI Opt An: 74|55|33

Ultra HQ Full TRI: 74|54|32

XT AF Opt: 63|46|33

Settings: 1024*768|1024+2AA+4AF|1280*1024+4AA+8AF

Ich glaub die XT mag kein Spellforce oder es gibt Treiberprobs.

NV40 ist in Setting eins Bandbreiten CPU limitiert."

Hier ist der NV40 etwa genauso schnell wie die 800XT bei deiner betrachteten Auflösung und Setting2.

Godmode
2004-05-06, 09:44:50
Original geschrieben von Quasar
Dasselbe habe ich ja auch schon gewagt nachzufragen - vor allem, _wie_ sichergestellt wurde, daß alle Texturstufen voll-trilinear und anisotrop gefiltert wurden...
aths bot mir daraufhin an, wen Artikel vorzulesen (hat er bis heute nicht gemacht, muss wohl eher rhetorisch gemeint gewesen sein) und verwies mich nochmals auf die Stelle im Artikel wo drinstand, daß die Optimierung deaktiviert worden sei.

Für Volltrottel halte ich die Jungs von der PCGH eigentlich nicht, weswegen es mich ein wenig wunder nimmt, daß hier zwei entgegengesetzte Aussagen im Raum stehen - besonders, wenn in der PCGH auch noch drinsteht, daß in einem Test die X800 20% mehr Füllrate zeigte, als sie sogar rein rechnerisch hätte haben dürfen.

Wäre ATi = nVidia, gäbe es sicherlich schon einige Threads, in denen das CH-Wort vorkommt...?

Jetzt mal ganz was böses! Wäre es eigentlich möglich dieses AF Testprogramm zu bescheissen? und wie Funktioniert die Einfärbung eigentlich? Wird das etwa mit nem Referenzbild verglichen?

Quasar
2004-05-06, 09:47:07
Original geschrieben von Gdo
Bitte zeige mir einen Effekt ! Es ist die Länge der Befehle und nichts anderes.
Jeder Effekt unter PS3.0 ist mit 2.0 auch darstellbar!
Alles andere ist nvidia-Marketing/Fanboy Wunschdenken!
Ich programmiere keine Shader und die entsprechende DX9 Runtime wird erst gegen Sommer verfügbar sein.

Aber wenn es dir reicht, dann möchte ich dich fragen, ob du mir zustimmst, daß 32 mehr als 24 sind.

Wenn du das tust, kannst du dir die Antwort selbst geben, da PS3.0 zwingend FP32 voraussetzt.


Original geschrieben von aths
NV optimiert(e) aber wirklich extrem doll auf Q3. Nicht nur auf die Engine, auch auf bestimmte Timedemos.
Das bestreite ich ja nicht (ob A** das wohl auch macht? ;) ), aber ich lasse es nicht als Pauschalargument gegen _jeden_ Benchmark gelten, den nV mal gewinnt.



Original geschrieben von MikBach
PCGH, COD, 1600x1200 4xAA 8xAF

X800XT ca. 65 fps
GF6800U ca. 45 fps

Sind "etwa"Werte, da 2D-Liniendiagramm. :)

Steht bei mir nicht in der PCGH...auf Seite 56 ist das CoD-Diagramm nur bis einschließlich 1280x1024, 4xAA, 8xAF.
Und selbst wenn... es geht rein um die AF-Optimierung, da hat FSAA erstmal nichts drin zu suchen.

MikBach
2004-05-06, 09:49:28
Original geschrieben von ShadowXX
SM3.0 ist schon ne nette sache...und die anderen kleinen Spielereien die nV mit eingebaut hat auch.

Die meisten werden nVs Vorstoss erst würdigen, wenn nv50/r500 rauskommt und dann auch sofort Games mit PS3.0 erhältlich sind...(was dann wirklich nur daran liegt, das nV jetzt schon SM3.0 anbietet).

Ack.

Ich freue mich besonders auf das Displacment Mapping, welches der NV40 jedoch nicht voll unterstützt. :(

Eine andere Frage ist, wie es mit der Performance des NV40 unter SM3.0 wirklich aussieht. Aber das werden wir erst erfahren, wenn die ersten Spiele rauskommen, die SM3.0 unterstützen. :(

ow
2004-05-06, 09:54:15
.

MikBach
2004-05-06, 09:54:16
Original geschrieben von Quasar
Steht bei mir nicht in der PCGH...auf Seite 56 ist das CoD-Diagramm nur bis einschließlich 1280x1024, 4xAA, 8xAF.


Seite 57 unten rechts :o
Dort ist ein Diagramm nur 1600x1200 4xAA 8xAF mit 5 Spielen(MP2, UT2004, EF2, COD, Halo).
Der Vorsprung der X800XT würde ich schon als sehr deutlich(in allen Spielen) bezeichnen.

ow
2004-05-06, 09:55:20
.

Quasar
2004-05-06, 09:58:33
Original geschrieben von MikBach
Seite 57 unten rechts :o
Dort ist ein Diagramm nur 1600x1200 4xAA 8xAF mit 5 Spielen(MP2, UT2004, EF2, COD, Halo).
Der Vorsprung der X800XT würde ich schon als sehr deutlich(in allen Spielen) bezeichnen.

Ahh, jetzt, JA! Eine Insel...
Nichtsdestotrotz wäre mir ein reiner AF-Vergleich wesentlich lieber, denn inkl. AA gibt es gerade bei CoD noch so einiges andere, was da mit reinspielt.

Falls Thilo das liest, würde mich mal selbiger Wert (CoD, 16x12x3, 4xAA, 8xAF) mit 16Bit-Texturen interessieren... ;)

ow
2004-05-06, 10:00:03
.

Sphinx
2004-05-06, 10:00:58
Original geschrieben von ow
Nein, die gibt es nicht.
Oder was meinst du mit "durchgaengig"?

Ich denke "only PS2.x" - und das ausreichend.

ow
2004-05-06, 10:01:25
.

ow
2004-05-06, 10:02:36
.

Quasar
2004-05-06, 10:04:36
Original geschrieben von ow
Meinst du, da wuerde sich an den ATi Werten etwas aendern? ;)

Nein, bei ATi vermutlich nur wenig...

ilPatrino
2004-05-06, 10:04:55
Original geschrieben von ShadowXX
Mal was ganz anderes:
Der Vertex Power der X800XT ist ja wesentlich höher als der der 6800Ultra (gegeben aus Takt und höherer Anzahl an Vertex-Pipes)...
Gibt es momentan irgendein Game (auch kommende), wo man diesen Unterschied erkennen kann (bzw. wo es was "bringt"), oder sind diese 6 Vertex-Shader einfach nur "Overkill"...

ich könnte mir vorstellen, daß ati auf den markt der profesionals schielt, wo geometrieleistung die wesentlich größere rolle spielt. also konkurrenz zu quadro, p/10/20...ati hat bereits verträge mit (u.a., bin da nicht grade gut informiert) sgi, die für die r300 ihre eigene entwicklungslinie aufgegeben haben. in dem markt sind die margen wesentlich höher, außerdem verschafft man sich einen namen.

frage am rande: wie gut sind die treiber (win2k und linux) für die firegl im vergleich zu denen der quadros?

Exxtreme
2004-05-06, 10:07:19
Original geschrieben von ilPatrino
frage am rande: wie gut sind die treiber (win2k und linux) für die firegl im vergleich zu denen der quadros?
Ich kenne die Quadro-Treiber nicht aber die Linux-ATi-Treiber stufe ich als unteres Mittelmaß ein.

ow
2004-05-06, 10:39:39
.

Lustiger Troll
2004-05-06, 10:45:37
Original geschrieben von ow
Also eine grosse Rolle in diesem Markt spielt die Genauigkeit mit der gerendert wird und da sieht's bei ATi schlecht aus im Vergleich zu NV.

ATI hat AFAIK ja nur 4Bit Subpixelgenauigkeit, bei NV sind 12 Bit bei der Quadro.



/Edit schwachfug geändert... ;D

Quasar
2004-05-06, 10:49:59
Original geschrieben von Lustiger Troll
ATI hat AFAIK ja nur 8Bit Subpixelgenauigkeit, bei NV sind 12 Bit bei der Quadro.

Ich hoffe, ich hab mich da gerade verguckt, aber GLView spuckt bei mir nur 4Bit aus...

Lustiger Troll
2004-05-06, 10:52:24
Original geschrieben von Quasar
Ich hoffe, ich hab mich da gerade verguckt, aber GLView spuckt bei mir nur 4Bit aus...


Hoppla hast natürlich recht *duck*, hab da was durcheinandergebracht... die Quadro 4 hatte 8Bit.

Quasar
2004-05-06, 10:58:50
Ich meinte den GLView und hoffte, daß ich mich da verguckt habe... =)
Ich bin nicht sicher, ob die FireGL eventuell eine höhere Präzision freigeschaltet bekommt oder ob das das HW-Limit ist.

Gsast
2004-05-06, 11:04:02
Original geschrieben von The_Invisible
http://3dcenter.de/artikel/r420_benchmarks/index22.php

ati @ it´s best... ;D

na wo glaubst sind die mehr an fps wohl wichtiger :D

mfg


Da schauen die PCGH Werte aber gan anders aus.

Lustiger Troll
2004-05-06, 11:04:07
Original geschrieben von Quasar
Ich meinte den GLView und hoffte, daß ich mich da verguckt habe... =)
Ich bin nicht sicher, ob die FireGL eventuell eine höhere Präzision freigeschaltet bekommt oder ob das das HW-Limit ist.

Ne passt schon, habe nochmal nachgeschaut, die FireGL hat 4Bit Subpixelgenauigkeit, 3dlabs Wildcat 6210 und 7210 haben 10 Bit, Quadro FX NV3xGL haben 12Bit.

http://www.de.tomshardware.com/graphic/20030225/quadrofx-2000-01.html

Gfast
2004-05-06, 11:08:14
Original geschrieben von ow
Nachweis?

Ich glaube das naemlich nicht (da alle meine Karten unter Q3 eine kompletten Parcours mit mehr als 15 Timedemos (auch eigene die nicht oeffentlich sind) durchlaufen, da wuerde sowas auffallen).

Jaja ow, wie wenn NV noch auf deine alten GF4 optimieren würde :rofl:

Teste mit einer FX z.B. mal alle UT2003 Timedemos durch...

BTW: Man hätte auch überprüfen müssen, ob NVs UT 2003/04 Texture Stage Optimierung (TS>0 = bilinear)immernoch aktiv ist.

...und ob sie vielleicht bei anderen Spielen wie z.B. Spellforce auch aktiv ist...

Lustiger Troll
2004-05-06, 11:20:12
Hier sieht man es schön das es ATI im Workstationbereich sehr schwer hat, dazu muss man noch sagen das hier eine FireGL X2T, basierend auf einer 9800XT gegen eine Quadro 1100 verglichen wird die auf dem NV36 basiert, die Quadro FX 3000 hat dementsprechend einiges mehr an Leistung. ATI hat zudem auch keinen TV-Out auf der FireGL.

http://www.tomshardware.com/graphic/20040323/index.html

deekey777
2004-05-06, 11:22:26
Original geschrieben von Liszca
das sehe ich ganz anders, wenn ich demnächst mal mein tft habe ist mir antialiasing vorerst mal bei 1280x1024 nicht so wichtig wie der anisotrope filter.

Auf meinem 15'' (Benq FP567s) ist es mehr als deutlich zu sehen, wenn AA aktiviert oder aus ist. Das gleiche auch bei der AF. Darum sind beide dieser IQ verbesserende Features wichtig.

@Quasar: Meine Signatur ist besser. :bäh2:

Winter[Raven]
2004-05-06, 11:31:06
Quadro FX 3000 hat dementsprechend einiges mehr an Leistung.

Tjö, Nvidia hat ja auch kurz nach der GF6800 Serie auch die Quadro 4000 angekündigt ^^.

Workstation und Linux markt befindet sich fest in der Hand von Nvidia.

Mr. Lolman
2004-05-06, 11:32:54
Original geschrieben von Winter[Raven]
Tjö, Nvidia hat ja auch kurz nach der GF6800 Serie auch die Quadro 4000 angekündigt ^^.

Workstation und Linux markt befindet sich fest in der Hand von Nvidia.

Wundert mich kaum. Entwickler wollen immer neueste Technik zum herumspielen. Deswegen war der NV Anteil da schon immer unnatürlich hoch. Ob für den Spieler eine andere Karte die bessere/wirtschaftlichere Wahl ist, interessiert die doch nicht.

Quasar
2004-05-06, 11:44:25
Original geschrieben von Lustiger Troll
Hier sieht man es schön das es ATI im Workstationbereich sehr schwer hat, dazu muss man noch sagen das hier eine FireGL X2T, basierend auf einer 9800XT gegen eine Quadro 1100 verglichen wird die auf dem NV36 basiert, die Quadro FX 3000 hat dementsprechend einiges mehr an Leistung. ATI hat zudem auch keinen TV-Out auf der FireGL.

http://www.tomshardware.com/graphic/20040323/index.html

Dat is keine TV-Out, sondern ein DIN-Anschluss für Stereo-Brillen, womit manche Leutz wohl ganz gern arbeiten.
Bei ATi, da hast du recht, gibt's dieses Feature weder für Geld noch gute Worte.

Wäre ich jetzt gemein, würde ich meinen, das liegt daran, daß einfach zuwenig Leute dieses Feature beim Cat-Crew-Programm anfordern... ;)

DrumDub
2004-05-06, 11:49:38
Original geschrieben von Quasar
Wäre ich jetzt gemein, würde ich meinen, das liegt daran, daß einfach zuwenig Leute dieses Feature beim Cat-Crew-Programm anfordern... ;)

damit hast du wohl sogar recht. ;D

MikBach
2004-05-06, 11:49:51
Original geschrieben von ow
Was wird da nicht unterstuetzt?

Um Displacement Mapping "voll" zu unterstützen, fehlt dem NV40:

1. eine Tesselationseinheit, die dynamisch die Geometrieauflösung eines Objektes verändert.
2. Texturfilter des Vertexshaders.
:naughty:

Lustiger Troll
2004-05-06, 11:56:43
Original geschrieben von Quasar
Dat is keine TV-Out, sondern ein DIN-Anschluss für Stereo-Brillen, womit manche Leutz wohl ganz gern arbeiten.
Bei ATi, da hast du recht, gibt's dieses Feature weder für Geld noch gute Worte.




Sah für mich nach nem TV-Out aus :asshole:

Quasar
2004-05-06, 12:03:08
Original geschrieben von MikBach
Um Displacement Mapping "voll" zu unterstützen, fehlt dem NV40:

1. eine Tesselationseinheit, die dynamisch die Geometrieauflösung eines Objektes verändert.
2. Texturfilter des Vertexshaders.
:naughty:

Soweit ich weiß, sind das "nur" Zusätze, damit man dynamisches, geometrisches LOD bekommt.

Aber stimmt schon, schade, daß der NV40 das nicht kann.

Gdfgdfg
2004-05-06, 12:48:08
das beste Review ATI vs. Nvidia http://www.xbitlabs.com/articles/video/display/r420-2.html

betasilie
2004-05-06, 12:49:42
Original geschrieben von ow
Was wird da nicht unterstuetzt?
Adaptives DM!?

Echtes adaptives DM benötigt a) einen mindestens bilinearen Texturfilter, der VS des NV40 kann nur Pointsampling, und b) eine adaptive Tesselationseinheit.

Winter[Raven]
2004-05-06, 12:55:57
Es gibt doch ein Video von Nvidia zum Thema DM, und dem anschein nach unterstützt der NV40 dieses sehr wohl.

GillianSeed
2004-05-06, 12:59:37
Hoffe die wurde noch nicht gepostet.
Die sieht ja super aus.
Aber vorsicht sie braucht einen 2 Slot.
Mir is sowas ziemlich :wayne: was nen PCI Slot angeht.

deekey777
2004-05-06, 13:03:15
http://www.nvnews.net/images/news/200405/comparison.png

Zum DM: Sagen wir es einfach so - keine Engine in den nächsten 2 Jahren wird echtes DM unterstützen.

MikBach
2004-05-06, 13:04:59
Original geschrieben von Winter[Raven]
Es gibt doch ein Video von Nvidia zum Thema DM, und dem anschein nach unterstützt der NV40 dieses sehr wohl.

Klar unterstützt der NV40 DM, nur halt nicht "voll". Ist aber nicht schlimm, da der R420 eh weniger kann. :)

bnmbnm
2004-05-06, 13:16:17
Original geschrieben von deekey777
http://www.nvnews.net/images/news/200405/comparison.png

Zum DM: Sagen wir es einfach so - keine Engine in den nächsten 2 Jahren wird echtes DM unterstützen.

die Tabelle ist Quatsch,weil viele unglaubwürige Test darunter sind.

Schaut euch den an http://www.xbitlabs.com/articles/video/display/r420-2.html

san.salvador
2004-05-06, 13:30:35
Original geschrieben von bnmbnm
die Tabelle ist Quatsch,weil viele unglaubwürige Test darunter sind.

Schaut euch den an http://www.xbitlabs.com/articles/video/display/r420-2.html
Was willst du uns damit sagen?



btw: Bei der Tabelle kann doch jeder für sich die aus seiner Sicht inkompetenten Reviews ausklammern. Ich finds interessant, das Ganze mal so zu sehen.

2B-Maverick
2004-05-06, 13:41:46
Original geschrieben von san.salvador
Was willst du uns damit sagen?



btw: Bei der Tabelle kann doch jeder für sich die aus seiner Sicht inkompetenten Reviews ausklammern. Ich finds interessant, das Ganze mal so zu sehen.

jo, gut gemacht nur LEIDER hat der Ersteller dabei AA/AF und Non-AA/Non-AF zusammengewürfelt.
Da müsste man getrennte Tabellen machen. (wer spielt schon unterhalb von 4xAA ?)

MikBach
2004-05-06, 13:45:35
Original geschrieben von bnmbnm
Schaut euch den an http://www.xbitlabs.com/articles/video/display/r420-2.html

:O
http://www.xbitlabs.com/images/video/r420-2/tron_1600_candy.gif
http://www.xbitlabs.com/images/video/r420-2/farcry_1600_candy.gif
http://www.xbitlabs.com/images/video/r420-2/pkiller_1600_candy.gif
http://www.xbitlabs.com/images/video/r420-2/generals_1600_candy.gif

Sorry, dass alles proATI ist, hab mir nur Benchmarks mit deutlichen Unterschieden(und 1600x1200Quali-andere Einstellungen interessieren mich bei einer High-End-Karte kaum) rausgesucht, proNvidia finde ich keine.
Scheint sich also zu bewahrheiten, was in der PCGH steht. In sehr hohen Auflösungen und Qualisettings hat Nvidia nichts zu lachen.

Black-Scorpion
2004-05-06, 13:58:49
Original geschrieben von GillianSeed
Hoffe die wurde noch nicht gepostet.
Die sieht ja super aus.
Doch, habe es schon auf Seite 42 gepostet.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1781707#post1781707

Demirug
2004-05-06, 13:59:31
Hat jemand bei xbitlabs gesehen was man dort im Bezug auf die Stageoptimierung des R420 gemacht hat?

Ich frage weil man beim NV40 ja einmal mit und ohne die Optimierung gebencht hat.

LovesuckZ
2004-05-06, 14:00:57
Keine Deaktivierung der Stageoptimierung.

Quasar
2004-05-06, 14:03:16
http://www.xbitlabs.com/images/video/r420-2/farcry_1280_candy.gif

Oder das hier...

Nur frage ich mich dabei, wo der Performance-Unterschied zwischen XT und Pro herkommt....?

Quasar
2004-05-06, 14:03:59
Original geschrieben von LovesuckZ
Keine Deaktivierung der Stageoptimierung.

Jep, angeblich gäbe es keinen Weg, die zu deaktivieren... :|

Wer hat denn nu recht? :confused:

InsaneDruid
2004-05-06, 14:05:11
Hm aber wenn man sich zb das hier ansieht:

http://www.xbitlabs.com/images/video/r420-2/il2_1280_candy.gif

http://www.xbitlabs.com/images/video/r420-2/il2_1600_candy.gif

Il2 is n OGL Game, also IIRC keine Stageoptimierung seitens ATI..

Demirug
2004-05-06, 14:06:21
Original geschrieben von Quasar
Jep, angeblich gäbe es keinen Weg, die zu deaktivieren... :|

Wer hat denn nu recht? :confused:

Die ganzen Tools dafür kennen den R420 eben noch nicht und wenn man den Regkey nicht zur Hand hat bekommt man es eben nicht aus.

san.salvador
2004-05-06, 14:06:25
Halb OT:

Weiß jamend von euch wann der Catalyst 4.5 releast wird?