PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread


Seiten : [1] 2 3 4 5 6 7 8 9 10

LovesuckZ
2004-05-04, 07:22:57
Da das erste Preview ohne leak online ist, sollte es auch dementsprechend einen Thread dazu geben!

http://www.meristation.com/sc/articulos/articulo.asp?c=HARD&cr=5218&pag=0



/edit L.
Sorry, ich mogle hier mal die 3DC-Artikel mit rein:
Inside ATIs R420 (http://www.3dcenter.de/artikel/r420_technik/)
ATi Radeon X800 Pro (R420) Review (http://www.3dcenter.de/artikel/r420_benchmarks/)

LovesuckZ
2004-05-04, 08:01:12
Um gleich mal eine Diskussion zu eröffnen.
Erklaerung?

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800Elsiguienteasalto/3dMark-Pixel.gif

http://www.meristation.com/sc/articulos/articulo.asp?c=HARD&cr=5218&pag=22

Asmodeus
2004-05-04, 08:04:10
Sieht für mich ganz nach dem Kopf an Kopf Rennen aus, was der Meinung vieler nach ja auch zu erwarten war.

Carsten.

Xinor
2004-05-04, 08:09:48
Netter Link, aber ich warte mal auf die Ct und Spielezeitschriften, mal sehn was die sagen.
Am besten wäre ein User mit Ahnung aus einem der 2 Foren wo ich angemeldet bin, der sich beide Karten kauft und testet ^^
Und zwar objektiv ^^

[dzp]Viper
2004-05-04, 08:10:16
die hätten bei der 6800 vielleicht mal Vsync ausschalten sollen X-D

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800Elsiguienteasalto/callofduty.gif

allgemein differrieren die ergebnisse gegenüber THG sehr stark

:|

(del676)
2004-05-04, 08:30:05
da is die 6800u meist vor der ATI in 1280 4xAA 8xAF?

dildo4u
2004-05-04, 08:31:51
http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800Elsiguienteasalto/MaxPayne2.gif
Gerade in hohen auflösungen kommt die 6800 meist nicht mher mit find ick merkwürdig da die ja eigntlich die meiste speicherbandbreite haben müsste

[dzp]Viper
2004-05-04, 08:34:24
den ergebnissen auf
http://www.meristation.com/sc/articulos/articulo.asp?c=HARD&cr=5218&pag=0
würde ich erstmal nicht trauen.... da gibts VIEL zu viele komische sachen :eyes:
Wir brauchen jetzt noch ein review von einer bekannten "seriosen" seite :)

dildo4u
2004-05-04, 08:36:30
naja aber bei diese test wurden wenigstens auch neue treiber für die X800 karte eingesetzt bei THG ham seh whol den alten cat4.4 genommen und damit auch die X800 karten gebencht
und lowK bauweise scheint echt zu greifen kleiner kühler als die 9800XT und auch kein kühler auf der rückseite

Quasar
2004-05-04, 08:39:18
Original geschrieben von dildo4u
http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800Elsiguienteasalto/MaxPayne2.gif
Gerade in hohen auflösungen kommt die 6800 meist nicht mher mit find ick merkwürdig da die ja eigntlich die meiste speicherbandbreite haben müsste

Da passt dein Bild aber nur wenig zu....

Und beim AF... naja, wenn man nur eine Texturstage trilinear-anisotrop filter und bei den restlichen 7/8 quasi die doppelte Füllrate hat - was Wunder. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1776744#post1776744

(auch wenn du's dort nicht so recht einsehen willst)

Demirug
2004-05-04, 08:56:51
Original geschrieben von Quasar
Da passt dein Bild aber nur wenig zu....

Und beim AF... naja, wenn man nur eine Texturstage trilinear-anisotrop filter und bei den restlichen 7/8 quasi die doppelte Füllrate hat - was Wunder. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1776744#post1776744

(auch wenn du's dort nicht so recht einsehen willst)

Nunja, bei den eingesetzten Max Payne II Shadern werden maximal 4 Texturschichten genutzt. Bei den angegebenen Taktraten hat die X800XT nun mal auch unbestritten eine um 30% höhere Fillrate.

Aber einen Blick auf diese Problematik sollte man dennoch werfen.

aths
2004-05-04, 08:57:22
Original geschrieben von LovesuckZ
Um gleich mal eine Diskussion zu eröffnen.
Erklaerung?In einigen Stunden bei uns.

Demirug
2004-05-04, 09:00:51
Original geschrieben von aths
In einigen Stunden bei uns.

Willst du wieder teasen?

LovesuckZ, die Balken sind doch eindeutig. In diesem Test erreicht der NV40 einfach eine höhere Shaderleistung pro Takt als der R420.

Lustiger Troll
2004-05-04, 09:01:20
Original geschrieben von aths
In einigen Stunden bei uns.

Wie ihr habt ne x800, naja da kann man sich ja freuen.

Quasar
2004-05-04, 09:02:59
Original geschrieben von Demirug
Nunja, bei den eingesetzten Max Payne II Shadern werden maximal 4 Texturschichten genutzt. Bei den angegebenen Taktraten hat die X800XT nun mal auch unbestritten eine um 30% höhere Fillrate.

Aber einen Blick auf diese Problematik sollte man dennoch werfen.

Max Payne II? Sehe ich gar nicht bei THG zum Vergleich zwischen noAF und AF.
Und das Abschneiden der XT wundert mich nicht, nur das der Pro, die ja ebenso unbestritten eine wesentlich niedrigere Füllrate hat. :)

St@N
2004-05-04, 09:04:02
also...wie ich das jetzt verstanden habe ist die 800xt schneller beim AF als die 8600ultra...

und beim AA schlechter..

ihr meint also das bei ATI noch nicht trill gefiltert wird unter D3D und deshalb iss sie besser bei UT2004 und schlechter bei CAll of Duty?


also wird die 800xt und pro unter D3D nochn bissl zurückfallen in wirklichkeit bei schöner quali?

oder hat nvidia bei beiden kein tril filtering genommen und wenn man das anmacht sind sie weiter hinten? (welches von den beiden varianten meint ihr denn :D)

Demirug
2004-05-04, 09:05:59
Original geschrieben von Quasar
Max Payne II? Sehe ich gar nicht bei THG zum Vergleich zwischen noAF und AF.
Und das Abschneiden der XT wundert mich nicht, nur das der Pro, die ja ebenso unbestritten eine wesentlich niedrigere Füllrate hat. :)

dildo4u hatte den MaxPayne II Bench verlinkt. Aber bei UT sieht es ähnlich aus. Dort werden AFAIK auch nur maximal 4 Layer benutzt.

Man müsste halt wissen was bei der verwendeten Demo limitiert.

Quasar
2004-05-04, 09:06:43
Original geschrieben von St@N
ihr meint also das bei ATI noch nicht trill gefiltert wird unter D3D und deshalb iss sie besser bei UT2004 und schlechter bei CAll of Duty?

oder hat nvidia bei beiden kein tril filtering genommen und wenn man das anmacht sind sie weiter hinten? (welches von den beiden varianten meint ihr denn :D)

Ich meine das.

Das weiss man nicht genau, aber ich habe nur Unterschied innerhalb der Meßgenauigkeit mit und ohne Trilinearer Optimierung festgestellt, außer bei reinen Füllratentests wie dem Villagemark.

aths
2004-05-04, 09:10:01
Original geschrieben von Quasar
Ich meine das.

Das weiss man nicht genau, aber ich habe nur Unterschied innerhalb der Meßgenauigkeit mit und ohne Trilinearer Optimierung festgestellt, außer bei reinen Füllratentests wie dem Villagemark. In einigen Stunden bei uns :)

St@N
2004-05-04, 09:10:06
na dann entscheidet sich das ja erst heute nachmittag und wir können uns zurücklehnen , spekulieren wies ausgeht und teetrinken :D


ich denke das die ati karten ein wenig vornliegen werden...warum sonst sollten sie die karte so lockern kühlen?! sie könnten auch was besseres draufbaun und die karte (chip und speicher) bissl höher takten (speicher müsste ja viel höher gehen wenn der jetzt noch netmal gekühlt wird (weil bei nvidia wird der ja gekühlt bei gleicher(?)taktrate?!)

aber GDDR3 hat doch ne geringere spannung oder und macht weniger abwärme? oder lieg ich falsch?

Quasar
2004-05-04, 09:10:29
Original geschrieben von Demirug
dildo4u hatte den MaxPayne II Bench verlinkt. Aber bei UT sieht es ähnlich aus. Dort werden AFAIK auch nur maximal 4 Layer benutzt.

Man müsste halt wissen was bei der verwendeten Demo limitiert.

Axo, ja, hatte ich übersehen. Dort tritt der Effekt ja auch nur stark abgemildert auf, weil AA noch mit an ist.

Aber auch so sind's dann in UT noch 3/4 der Texturlayer... und trotzdem erreicht die 12-Pipe X800 Pro noch mehr Leistung als die 6800U. Paßt m.E. nach alles ziemlich gut zusammen, aber ich lasse mich gern überraschen.

Hoffentlich hat Leo mit ohne reduziert-trilinearer Filterung auf der 6800 und TS-Optimierung auf den Radeons gebencht.

Quasar
2004-05-04, 09:12:20
Original geschrieben von aths
In einigen Stunden bei uns :)

Ja, schön. =)
Trotzdem wird auch Leo sicher nichts großartig anderes herausbekommen in Bezug auf den Performance-Hit für richtige trilineare Filterung auf der 6800. =)

aths
2004-05-04, 09:20:27
Original geschrieben von Quasar
Ja, schön. =)
Trotzdem wird auch Leo sicher nichts großartig anderes herausbekommen in Bezug auf den Performance-Hit für richtige trilineare Filterung auf der 6800. =) Du solltest wissen, unter welchen Gesichtspunkten wir testen, und unter welchen nicht :)

Demirug
2004-05-04, 09:20:59
Original geschrieben von Quasar
Aber auch so sind's dann in UT noch 3/4 der Texturlayer... und trotzdem erreicht die 12-Pipe X800 Pro noch mehr Leistung als die 6800U. Paßt m.E. nach alles ziemlich gut zusammen, aber ich lasse mich gern überraschen.

Natürlich deswegen ja auch meine Frage was in der benutzte Timedemo limitiert. Wenn es die Fillrate ist kann die Pro eigentlich nur gewinnen wenn sie da was gedreht hat.

Hoffentlich hat Leo mit ohne reduziert-trilinearer Filterung auf der 6800 und TS-Optimierung auf den Radeons gebencht.

Hoffen wir mal das er die TS-Optimierung (und vielleicht noch anderes) soweit vorhanden deaktivieren konnte.

(del676)
2004-05-04, 09:43:49
uiuiuiui bin ich gespannt auf leo's review

legt das review auf dem server in ne ramdisk und integriert die bilder nur als links in das review - sonst kracht wieder alles ;)

Quasar
2004-05-04, 09:46:09
Original geschrieben von aths
Du solltest wissen, unter welchen Gesichtspunkten wir testen, und unter welchen nicht :)

Ich weiß, unter welchen ihr in der Vergangenheit getestet habt. Allerdings glaube ich nicht, daß ihr auf einen Test verzichtet, wenn sich die TS bsw. nicht deaktivieren ließe....

seahawk
2004-05-04, 09:47:32
Können wir die Diskussion nicht bis zum Erscheinen weiterer Test aussetzen ?? Erst dann läst sich imho eine endgültige Aussage treffen.

nagus
2004-05-04, 09:47:37
Original geschrieben von LovesuckZ
Da das erste Preview ohne leak online ist, sollte es auch dementsprechend einen Thread dazu geben!

http://www.meristation.com/sc/articulos/articulo.asp?c=HARD&cr=5218&pag=0


dieses "review" ist craptacular... genau wie das auf tomshardware.

Quasar
2004-05-04, 09:52:40
Original geschrieben von nagus
dieses "review" ist craptacular... genau wie das auf tomshardware.

Wieso? Liegt dir die Radeon nicht vorn genug?

PCGH_Thilo
2004-05-04, 10:34:52
Original geschrieben von aths
In einigen Stunden bei uns :)

oder am kiosk morgen (abonnenten heute) ;-)

[dzp]Viper
2004-05-04, 10:36:02
Original geschrieben von PCGH_Thilo
oder am kiosk morgen (abonnenten heute) ;-)

dann scan mal ein :naughty:

X-D

Pennersackreg
2004-05-04, 10:42:55
Original geschrieben von Demirug
dildo4u hatte den MaxPayne II Bench verlinkt. Aber bei UT sieht es ähnlich aus. Dort werden AFAIK auch nur maximal 4 Layer benutzt.

Man müsste halt wissen was bei der verwendeten Demo limitiert.

Stimmt nicht Selbst UT2003 nutzte bis 8 Layer

Karümel
2004-05-04, 10:43:40
Original geschrieben von [dzp]Viper
dann scan mal ein :naughty:

X-D

Post war gerade da, gleich mal schauen.
Hab leider keinen Scanner ;)

dfhrtj
2004-05-04, 10:44:38
Warum bricht die Pro gegen die XT manchmal so derb ein?
Die paar Mhz Unterschied kanns wohl nicht sein ,sinds wirklich die Pipes ?

PCGH_Thilo
2004-05-04, 10:45:22
Original geschrieben von Karümel
Post war gerade da, gleich mal schauen.
Hab leider keinen Scanner ;)

bitte abwarten, bis das NDA ausläuft =)

[dzp]Viper
2004-05-04, 10:46:09
Original geschrieben von dfhrtj
Warum bricht die Pro gegen die XT manchmal so derb ein?
Die paar Mhz Unterschied kanns wohl nicht sein ,sinds wirklich die Pipes ?

in hohen auflösungen - ja - dann machen sich die 4 fehlenden Pipes bemerkbar (ab 1280x1024 mit AA)

Demirug
2004-05-04, 10:48:03
Original geschrieben von Pennersackreg
Stimmt nicht Selbst UT2003 nutzte bis 8 Layer

8 Layer in einem Pass? An welcher Stelle denn?

Ich will es nicht ausschliessen aber wundern würde es mich schon.

Karümel
2004-05-04, 10:49:14
Original geschrieben von PCGH_Thilo
bitte abwarten, bis das NDA ausläuft =)

Das wird jetzt etwas OT, aber:
Schweinerei ;) , keine PCGH bekommen, die kommt (mal wieder) erst einen Tag später als erwartet :(

ow
2004-05-04, 10:49:19
.

seahawk
2004-05-04, 10:50:31
Original geschrieben von PCGH_Thilo
oder am kiosk morgen (abonnenten heute) ;-)

Deswegen warte ich auf meine PCGH - aber dafür warte ich doch gerne :up:

PCGH_Thilo
2004-05-04, 10:57:55
Original geschrieben von Karümel
Das wird jetzt etwas OT, aber:
Schweinerei ;) , keine PCGH bekommen, die kommt (mal wieder) erst einen Tag später als erwartet :(

OT: wir mussten das abo etwas verzögern, sonst hätten wir ärger bekommen.

Roadkill@work
2004-05-04, 10:59:06
Hat Leo denn eigentlich mal einen besseren Testrechner?

Ein P4 2,5 GHZ limitiert doch schon sehr gut, ist mir schon beim NV40 aufgefallen. Unterschiede werden so dann auch nur marginal ausfallen, ist meine Befürchtung.

fizzo
2004-05-04, 11:03:26
Original geschrieben von Roadkill@work
Hat Leo denn eigentlich mal einen besseren Testrechner?

Ein P4 2,5 GHZ limitiert doch schon sehr gut, ist mir schon beim NV40 aufgefallen. Unterschiede werden so dann auch nur marginal ausfallen, ist meine Befürchtung.

es wird sicher der gleiche pc zum einsatzt kommen, so dass er die nv40 werte zum verleich heranziehen kann!

Roadkill@work
2004-05-04, 11:06:44
Gute sehe ich ein, aber mich interessiert wie der R420 auf höheren System skaliert, im Vergleich zum NV40.

[dzp]Viper
2004-05-04, 11:08:42
Da hat Roadkill in gewisser weise schon recht!
Der P4 2,5 ghz ist langsam doch etwas "betucht" ;)
Vor allem bei solchen 400-600€ grafikgeschossen..

MorBiuZ
2004-05-04, 11:15:12
wann erscheint hier das Review ?
und bencht bitte Enemy T. wieder mit :chainsaw:

Gruss

MorB

Godmode
2004-05-04, 11:29:24
Original geschrieben von PCGH_Thilo
oder am kiosk morgen (abonnenten heute) ;-)

Nice!!! Bin aus Österreich bekomm ich da das Heft auch schon heute? Abo hab ich!!!

deekey777
2004-05-04, 11:37:16
Original geschrieben von PCGH_Thilo
OT: wir mussten das abo etwas verzögern, sonst hätten wir ärger bekommen.

Ach dieses böse, böse NDA....

Aber wie kriegt man es hin, dass die 6800er so schlecht in CoD ist. Aber wenn's um MP2 geht, dann ist die 9800XT kein altes Eisen - Verzeihung, - kein altes Sillizium.
Nachtrag: Die X800XT über holt die 6800 im VS Test des 3D2003 - das nenne ich Fortschritt :D .

Nein, ich habe die PCGH nicht, ich bezog mich auf den Test der spanischen Seite.

(Vielleicht werde ich sie mir holen, damir deren ua Schreibstil gefällt.)

Godmode
2004-05-04, 11:38:05
Original geschrieben von deekey777
Ach dieses böse, böse NDA....

Aber wie kriegt man es hin, dass die 6800er so schlecht in CoD ist. Aber wenn's um MP2 geht, dann ist die 9800XT kein altes Eisen - Verzeihung, - kein altes Sillizium.

Hast du die PCGH schon??

perforierer
2004-05-04, 11:38:49
Original geschrieben von [dzp]Viper
Da hat Roadkill in gewisser weise schon recht!
Der P4 2,5 ghz ist langsam doch etwas "betucht" ;)
Vor allem bei solchen 400-600€ grafikgeschossen..

Fand ich bei dem Test damals auch. Naja...bei hohen Auflösungen mit Qualifeatures (da wirds ja eh erst interessant), sieht man die Unterschiede auch so...

nagus
2004-05-04, 11:47:04
ab 15:00 Uhr: http://www.tecchannel.de/hardware/1384/index.html

... und sicher auf diversen anderen seiten auch ;)

Spacer78
2004-05-04, 11:48:03
www.chip.de
Das Fazit:ATI deutlich vorn - Radeon rockt

perforierer
2004-05-04, 11:49:26
Wollte gerade den chip.de Link posten, aberd a war einer schneller..naja..abwarten.. chip.de ist nicht für gute Graka-Tests berühmt hehehe...

LovesuckZ
2004-05-04, 11:52:59
Wenn schon das NDA brechen, dann doch wenigsten richtig. Wo sind denn die Angaben zur den PS und VS Features...

sheissunreg
2004-05-04, 11:58:20
Nur 300 Watt Netzteil und ein Stromanschluß bei 520/560 MHz. Ein dicker Pluspunkt.

Frager
2004-05-04, 11:59:45
Daneben wird klar: Mit der X800-Architektur und verbesserter Pixel-Shader-2.0-Unterstützung sind Sie "näher an aktuellen Spielen dran" als mit einer GeForce 6800 mit Pixel-Shader-3.0-Support - das zeigen eindrucksvoll die Resultate bei DirectX-Spielen.

Quelle: http://www.chip.de/artikel/c_artikelunterseite_11828970.html?tid1=&tid2=

;D

Fadl
2004-05-04, 12:01:02
Original geschrieben von sheissunreg
Nur 300 Watt Netzteil und ein Stromanschluß bei 520/560 MHz. Ein dicker Pluspunkt.

DAS könnte in der Tat ein riesen Vorteil für ATI sein.
Es gibt bestimmt genügend potentielle Käufer die keine 2 Leitungen für eine 6800U mehr frei haben oder über ein zu klein dimensioniertes Netzteil verfügen.

perforierer
2004-05-04, 12:01:13
Ich sags ja. Die ersten seiten des Chip.de Testes sind wieder mal die üblichen Marketing-Lobhudeleien, die von den Herstellerinfos übernommen wurden...
Daneben wieder die üblichen Tests ohne differenzierte Darstellung von AA/AF

Außerdem fehlt die Pro. Grade die interessiert mich im Vergleich extrem, besonders aus Preis-/Leistungs- Gesichtspunkten...

Was aber schonmal gut kommt ist, dass die Leistungsaufnahme net so derbe sein soll wie bei nVidia...
Der UT Bench ist aber schonmal derb. in 1200x1600 mit 4fach AA und 8fach AF doppelt so schnell wie die alten Topmodelle...krazz..

573458efhsj
2004-05-04, 12:01:31
Kopf an Kopf Rennen, mal gewinnt der einer mal der andere Chip, nichts neues am Grakamarkt :D

Quasar
2004-05-04, 12:02:38
Original geschrieben von deekey777
Ach dieses böse, böse NDA....

Aber wie kriegt man es hin, dass die 6800er so schlecht in CoD ist.

Indem man VSync anläßt?

deekey777
2004-05-04, 12:05:13
Original geschrieben von Quasar
Indem man VSync anläßt?

Die Tester haben dort wohl zwei linke Hände... :D

(PS: Es war eh rhetorisch gemeint ;) )

Omnicron
2004-05-04, 12:11:01
CHIP
zudem lag die gemessene Lautheit von 2,4 sone beziehungsweise 42,2 dB(A) im nicht hörbaren Bereich.

:crazy:

In einem CD-ROM Review von denen hört sich das noch so an:
CHIP
Das Laufgeräusch ist akzeptabel: 2,5 Sone sind zwar hörbar, aber nicht wirklich störend.

WMV-HD-Beschleunigung hört sich aber fein an. :)

Godmode
2004-05-04, 12:13:06
Der Postbote hat mir gerade das neue Heft gebracht, yippy :jumping:

checky
2004-05-04, 12:15:26
kommt drauf an, wo die die lautstärke gemessen haben: cd-rom liegt ja außen am pc, graka innen. kann also schon sein, dass die 2,4 sone außen nicht hörbar sind.

captainsangria
2004-05-04, 12:22:19
wie sieht es eigentlich aus, wenn die 6800er auch um die 120MHz schneller wäre ??

denn der vorteil, den ich von den chip benches ablese ist, daß die radeon "nur" durch ihre MHz schneller ist, oder ??

tRpii
2004-05-04, 12:23:17
Ich warte doch lieber auf vernünftige und vorallem objektive tests von daher scheidet THG und CHIP schonmal aus.

Ich freu mich schon auf den Artikel von u.a. 3DC der sicher wieder Top werden wird und wenigstens alles beleuchtet und nicht schon bei 50% aufhört.

perforierer
2004-05-04, 12:27:55
Original geschrieben von captainsangria
wie sieht es eigentlich aus, wenn die 6800er auch um die 120MHz schneller wäre ??

denn der vorteil, den ich von den chip benches ablese ist, daß die radeon "nur" durch ihre MHz schneller ist, oder ??

Selbst wenns so wäre (warten wir mal qualifiziertere Tests ab): Entscheidend ist, ob das Produkt schneller ist oder nicht. Ob das nun am höheren Takt liegt oder am Design ist ja nun als Kunde zweitrangig. Zumal der nVidia Chip ja auch sehr, sehr heiss wird. Wenn man nunmal - wie ATI - ein Design macht, bei dem der Chip weniger heiss wird, kann man auch höher takten.

captainsangria
2004-05-04, 12:38:24
weiters positiv ist der einfache stromanschluß den die ati benötigt.

das und der preis wird am ende entscheiden bei den meisten.
denn von der leistung wird im "echten leben" nicht all zu viel unterschied sein.
wo merkt man denn 2-5 frames ?

betasilie
2004-05-04, 12:41:06
Kann es sein, dass FarCry schon 3Dc unterstützt?

ow
2004-05-04, 12:41:27
.

dhtrtjhrt
2004-05-04, 12:41:55
Ihr wollt die schönsten Spiele mit AA/AF genießen,dann schaut mal http://www.chip.de/ii/21775380_f7b6a623ae.gif

betasilie
2004-05-04, 12:43:10
Original geschrieben von dhtrtjhrt
Ihr wollt die schönsten Spiele mit AA/AF genießen,dann schaut mal http://www.chip.de/ii/21775380_f7b6a623ae.gif
Deswegen meine Frage, ob FarCry schon 3Dc unterstützt. Das ist ja ein brutaler Vorsprung für ATI. :o

x-dragon
2004-05-04, 12:43:20
Original geschrieben von betareverse
Kann es sein, dass FarCry schon 3Dc unterstützt? Laut dem Chip-Test: Ja!

Demirug
2004-05-04, 12:43:48
Original geschrieben von betareverse
Kann es sein, dass FarCry schon 3Dc unterstützt?

Sehr unwahrscheinlich.

gjkzfukzu
2004-05-04, 12:45:07
Chip.de

Fazit: ATI deutlich vorn - Radeon rockt

ATIs Radeon X800 XT liegt in den wichtigen Benchmarks deutlich vorn. Überall, wo Nvidias GeForce 6800 Ultra vor kurzem noch Bestleistungen aufstellte, toppt der neue XT-Turbo nochmals das Ergebnis – und das mit einer hervorragenden Bildqualität.

x-dragon
2004-05-04, 12:46:17
Dass ATI dabei Nägel mit Köpfen macht, zeigt die große Akzeptanz von 3Dc: Kommende 3D-Knaller wie Half Life 2, Doom III oder Serious Sam II werden auf diesem Algorithmus aufsetzen. Daneben profitiert schon jetzt das Spiel Far Cry von 3Dc.

http://www.chip.de/artikel/c_artikelunterseite_11828732.html?tid1=&tid2=

Demirug
2004-05-04, 12:47:42
Original geschrieben von betareverse
Deswegen meine Frage, ob FarCry schon 3Dc unterstützt. Das ist ja ein brutaler Vorsprung für ATI. :o

Chip hat den Treiber mit dem Farcry Performance Bug benutzt.

[dzp]Viper
2004-05-04, 12:50:26
Original geschrieben von Demirug
Chip hat den Treiber mit dem Farcry Performance Bug benutzt.

ati treiber der in farcry nen performancebug hat? Höre ich das erste mal :|

ATIs Radeon 9800 XT wurde mit dem Catalyst-4.4-Treiber vermessen.

ich wusste garnicht, dass der treiber einen performancebug in FC hat....

/edit: achso - du meinst die NV treiber.. kk *verstanden*

DrumDub
2004-05-04, 12:50:45
Original geschrieben von Demirug
Chip hat den Treiber mit dem Farcry Performance Bug benutzt.

du meinst den 60.72?

ffghjhj
2004-05-04, 12:51:04
Hier die harten Fakten


http://www.chip.de/ii/21775561_b73e4165f3.gif

http://www.chip.de/ii/21775374_a2b3e2ace3.gif

http://www.chip.de/ii/21775380_f7b6a623ae.gif

Kommentar zum Farcry Test :

Far Cry: Gleich ein atemberaubendes Ergebnis für ATIs Radeon X800 XT. Der Benchmark katapultiert ATIs neues 3D-Flaggschiff deutlich auf die Pole Position der Highend-Chips. Schafft Nvidias GeForce 6800 Ultra in einer Auflösung von 1.600 x 1.200 Pixel, mit aktiviertem Anti-Aliasing (4x) und anisotropem Filter (8x) gerade mal 23,3 Bilder pro Sekunde (fps), erreicht die Radeon X800 XT mit 41,1 fps nahezu den doppelten Benchmark-Wert. Das ist - mit Verlaub – einsame Spitze.

deekey777
2004-05-04, 12:53:05
Original geschrieben von [dzp]Viper
ati treiber der in farcry nen performancebug hat? Höre ich das erste mal :|

ATIs Radeon 9800 XT wurde mit dem Catalyst-4.4-Treiber vermessen.

ich wusste garnicht, dass der treiber einen performancebug in FC hat....

Scherzkecks....

Demirug meinte, dass Chip einen älteren Treiber als den 61.11 benutzte, der einen "Performance" Bug haben soll. Nur scheint aber auch der 61.11 beta andere Bugs aufzuweisen.

Zitiert aus dem Beitrag (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1776182#post1776182) von LS:

Known 61.11 driver bugs:

117597 [TWIMTBP]NV40,WinXP: Corruption when trying to take a screenshot with AA enabeld in Far Cry.

117561 [TWIMTBP]NV38/40,WinXP: Corruption of some weapons in Far Cry.

117474 [TWIMTBP]NV40,WinXP: Fog broke in Far Cry.

113476 NV38/40-WinXP: Lighting/shadow problem in FarCry.

117575 [TWIMTBP] NV40/38: Banding visible from wall in FarCry.

Demirug
2004-05-04, 12:53:32
Original geschrieben von DrumDub
du meinst den 60.72?

Ja, mit dem funktioniert irgendwas mit dem Z-Test nicht richtig.

betasilie
2004-05-04, 12:54:13
Original geschrieben von Demirug
Sehr unwahrscheinlich.
mhh. Die Specs zu 3Dc müssen ja schon lange auf den Tisch liegen, daher halte ich es nicht für unwahrscheinlich, dass FC schon 3Dc nutzt, denn ATI hat CryTek ja bei der Entwicklung von FarCry unterstützt.

betasilie
2004-05-04, 12:54:49
Original geschrieben von Demirug
Ja, mit dem funktioniert irgendwas mit dem Z-Test nicht richtig.
Stimmt. Wieviel Prozent ist die 6800Ultra mit dem neuem Treiber in FC schneller?

gthff
2004-05-04, 12:56:45
www.chip.de

Daneben wird klar: Mit der X800-Architektur und verbesserter Pixel-Shader-2.0-Unterstützung sind Sie "näher an aktuellen Spielen dran" als mit einer GeForce 6800 mit Pixel-Shader-3.0-Support - das zeigen eindrucksvoll die Resultate bei DirectX-Spielen.


Bestwerte in den Benchmarks
So ereicht ATIs neues 3D-Flaggschiff Radeon X800 XT bei den Spielen Tomb Raider und UT 2004 jeweils einen Vorsprung von über 20 Prozent vor Nvidias GeForce 6800 Ultra. Das ist enorm hoch, gemessen an der hohen Leistungsdichte derartiger Grafikchips.

Richtig unter die Räder kommt Nvidias schnellster 3D-Grafikchip beim neuesten 3D-Knaller Far Cry: ATIs Radeon X800 XT absolviert den DirectX-9-Benchmark mit etwa 43 Bilder/s (bei einer Auflösung von 1.600 x 1.200 Pixel, 32 Bit Farbtiefe, 4xAA und 8xAF) nahezu doppelt so schnell wie eine GeForce-6800-Ultra-Karte.

Perfekte Ergonomie-Werte der Radeon X800 XT

Dass die sehr guten Messwerte nicht automatisch eine hohe Stromaufnahme bedingen, wird daran deutlich, dass für X800-XT-Grafikkarten lediglich ein zusätzlicher Stromstecker benötigt wird. Die Gesamtleistung unseres Testsystems lag zwischen 99 Watt (Desktop) und maximalen 216 Watt im 3D-Modus. Das ist nur wenig mehr als ein vergleichbares Radeon-9800-XT-System, das auf 204 Watt kommt. Eine Folge der geringen Stromaufnahme: Weniger Stromverbrauch bedeutet immer auch weniger Kühlungsbedarf, was sich letztendlich in einer
kleineren Lüfterdrehzahl und Geräuschpegel des Chiplüfters niederschlägt. Das Resultat: Die gemessene Lautheit von 2,4 sone für das Radeon-X800-XT-Modell liegt im unhörbaren Bereich - auch das ist ein Vorteil gegenüber Nvidias GeForce 6800 Ultra.

Radeon-X800-Verkaufsstart: Mitte bis Ende Mai
Zu kaufen sollen die Radeon-X800-Modelle ab Mitte bis Ende Mai sein. Die angepeilten Preise: 400 Euro für die Radeon X800 Pro und etwa 500 Euro für die 16-Pixel-Pipeline-Variante Radeon X800 XT.

Fadl
2004-05-04, 12:56:52
Kann man denn mit FarCry Benches im Moment überhaupt etwas sinnvolles anfangen ausser zu zeigen das die x800 Karten verdammt schnell sind? Die Nvidia Karten zeigen doch noch immer eine schlechtere Bildqualität als die ATI Karten oder?

DrumDub
2004-05-04, 12:59:13
Original geschrieben von betareverse
Stimmt. Wieviel Prozent ist die 6800Ultra mit dem neuem Treiber in FC schneller?

bis zu 20%. dafür sind aber wohl andere sachen in far cry mit dem 61.11 kaputt: http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?s=&postid=1776182#post1776182

Lustiger Troll
2004-05-04, 12:59:17
Original geschrieben von betareverse
Stimmt. Wieviel Prozent ist die 6800Ultra mit dem neuem Treiber in FC schneller?

Laut vr-zone sind es 20%.

/Edit: DrumDub war schneller ;D

Tesseract
2004-05-04, 12:59:18
also irgendwie sind die bisherigen reviews höchst unbefriedigend

ich warte lieber auf den 3dcenter review um mir eine meinung über den neuen chip zu machen

x-dragon
2004-05-04, 13:00:13
Original geschrieben von Fadl
Kann man denn mit FarCry Benches im Moment überhaupt etwas sinnvolles anfangen ausser zu zeigen das die x800 Karten verdammt schnell sind? Die Nvidia Karten zeigen doch noch immer eine schlechtere Bildqualität als die ATI Karten oder? Zumindest funktionieren die verwendeten Treiber anscheind noch nicht völlig fehlerfrei, und die neuen 61er-Treiber boten auch schon etwas mehr Leistung.

Demirug
2004-05-04, 13:01:02
Original geschrieben von betareverse
mhh. Die Specs zu 3Dc müssen ja schon lange auf den Tisch liegen, daher halte ich es nicht für unwahrscheinlich, dass FC schon 3Dc nutzt, denn ATI hat CryTek ja bei der Entwicklung von FarCry unterstützt.

Es sind zwar noch eigentlich zwei Stunden aber da 3dc ja schon von ATI selbst öffentlich gemacht wurde ist es egal.

Um 3dc zu nutzen braucht man zum einen einen zusätzlichen Satz Texturen welche als 3dc komprimiert sind. Jedesmal beim Start wird man das kaum machen.

Zum zweiten muss jeder Shader der eine mit 3dc komprimierte Normalmap nutz umprogrammiert werden.

Deswegen halte ich es eben für sehr unwahrscheinlich.

betasilie
2004-05-04, 13:01:13
Original geschrieben von Lustiger Troll
Laut vr-zone sind es 20%.
Original geschrieben von DrumDub
bis zu 20%. dafür sind aber wohl andere sachen in far cry mit dem 61.11 kaputt: http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?s=&postid=1776182#post1776182
Nun, 20% reichen wohl nicht aus, um der XT das Wasser zu reichen. Aber vielleicht kann die 6800Ultra so wenigstens die x800Pro schlagen.

Wobei es natürlöich mal wieder ein Witz ist, dass der neue Treiber von NV einen Bug in FC behebt und andere schafft. :|

nagus
2004-05-04, 13:01:52
ATi hats wieder geschafft... die karte ist schneller, leiser, leichter, kleiner, kühler, billiger in der produktion... was will man mehr?

Fadl
2004-05-04, 13:03:12
Original geschrieben von x-dragon
Zumindest funktionieren die verwendeten Treiber anscheind noch nicht völlig fehlerfrei, und die neuen 61er-Treiber boten auch schon etwas mehr Leistung.

Etwas zu viele Fehler von den NVidia Karten bei FarCry für meinen Geschmack. Ist denn der Fehler bei UT2004 mit fehlerhafter Darstellung vom Himmel schon behoben?

betasilie
2004-05-04, 13:03:17
Original geschrieben von Demirug
Es sind zwar noch eigentlich zwei Stunden aber da 3dc ja schon von ATI selbst öffentlich gemacht wurde ist es egal.

Um 3dc zu nutzen braucht man zum einen einen zusätzlichen Satz Texturen welche als 3dc komprimiert sind. Jedesmal beim Start wird man das kaum machen.

Zum zweiten muss jeder Shader der eine mit 3dc komprimierte Normalmap nutz umprogrammiert werden.

Deswegen halte ich es eben für sehr unwahrscheinlich.
Danke für die Info. Also habt ihr euch FarCry genau angeguckt und festgestellt, das 3Dc nicht genutzt wird? ... Ok, ich kann warten. ;)

tokugawa
2004-05-04, 13:07:13
Original geschrieben von Omnicron
:crazy:

CHIP
zudem lag die gemessene Lautheit von 2,4 sone beziehungsweise 42,2 dB(A) im nicht hörbaren Bereich.




Die müssen taub sein...

seahawk
2004-05-04, 13:07:20
Original geschrieben von betareverse
Danke für die Info. Also habt ihr euch FarCry genau angeguckt und festgestellt, das 3Dc nicht genutzt wird? ... Ok, ich kann warten. ;)

Da könntest Du evtl. lange warten. Ein komplettes Set Texturen in 3dc. Ui, das kommt dann aber einiges anzusätzlichem Festplattenbedarf auf den User zu. Ich bezweifele, dass sich 3dc durchsetzt so lange es nur ATI nutzt.

Hacki_P3D
2004-05-04, 13:07:37
http://www.computerbase.de/forum/showthread.php?p=646488#post646488

wurde der schon gepostet ?

animal chin
2004-05-04, 13:08:24
Wenn die Werte ohne 3dc erzielt werden sollte da mit 3dc noch nen bischen was gehn oder?

Uller
2004-05-04, 13:09:33
Hier ist das Preview von Bjorn 3D als .zip (auf rage3d.com gefunden):

http://home.rochester.rr.com/omidgc/X800XT%20preview.rar

Demirug
2004-05-04, 13:10:00
Original geschrieben von betareverse
Danke für die Info. Also habt ihr euch FarCry genau angeguckt und festgestellt, das 3Dc nicht genutzt wird? ... Ok, ich kann warten. ;)

Ich habe mit dem 3dcenter preview/review nichts zu tun. Komplett ausschliessen kann ich die Verwendung von 3dc bei farcry derzeit nicht weil ich die Shader welcher auf einem R420 genau benutzt werden noch nicht gesehen haben. Ich halte es aus besagten Gründen aber eben für derzeit unwahrscheinlich.

Demirug
2004-05-04, 13:12:13
Original geschrieben von animal chin
Wenn die Werte ohne 3dc erzielt werden sollte da mit 3dc noch nen bischen was gehn oder?

So einfach ist das leider nicht zu sagen. 3dc braucht zwar weniger Bandbreite aber dafür zusätzliche Shaderleistung. Es hängt also davon ab was in dem Moment wenn die Normalmap gebraucht wird gerade knapp ist.

x-dragon
2004-05-04, 13:12:15
Original geschrieben von seahawk
Da könntest Du evtl. lange warten. Ein komplettes Set Texturen in 3dc. Ui, das kommt dann aber einiges anzusätzlichem Festplattenbedarf auf den User zu. Ich bezweifele, dass sich 3dc durchsetzt so lange es nur ATI nutzt. Naja was heißt durchsetzen? Wenn es Spiele wie D3, HL2 und FarCry unterstützen (werden) ist es doch schon mal ein guter Anfang, oder? Und ich kann mir nicht vorstellen das sich Chip das komplett aus den Fingern gesaugt hat.

Uller
2004-05-04, 13:12:19
3D Mark Score der X800XT von Bjorn3D: 13.216!
(auf einem A64 3000+)

LovesuckZ
2004-05-04, 13:15:30
Original geschrieben von x-dragon
Naja was heißt durchsetzen? Wenn es Spiele wie D3, HL2 und FarCry unterstützen (werden) ist es doch schon mal ein guter Anfang, oder? Und ich kann mir nicht vorstellen das sich Chip das komplett aus den Fingern gesaugt hat.

Theinq.com hat das wohl mal erwaehnt, steht wohl in einer Folie von ATi drin.

AlfredENeumann
2004-05-04, 13:15:33
Original geschrieben von Quasar
Wieso? Liegt dir die Radeon nicht vorn genug?

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800Elsiguienteasalto/callofduty.gif


Nein. Wem aber das hier nicht auffält?
Das sehe ich als absoluter Laie das hier etwas vergessen wurde auszumachen.

perforierer
2004-05-04, 13:20:11
Original geschrieben von ow
Die ATi wird wohl deshalb weniger heiss weil sie weniger Transistoren und Funktionalitaet hat als der NV Chip.

Klar, meine ich ja auch. :)
Aber dann hat man eben den Vorteil, dass man höher takten kann.

x-dragon
2004-05-04, 13:20:28
Original geschrieben von AlfredENeumann
http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800Elsiguienteasalto/callofduty.gif


Nein. Wem aber das hier nicht auffält?
Das sehe ich als absoluter Laie das hier etwas vergessen wurde auszumachen. Doch das wurde definitv in einem der Threads hier schon angesprochen :).

dohdoh
2004-05-04, 13:21:40
Original geschrieben von nagus
ATi hats wieder geschafft... die karte ist schneller, leiser, leichter, kleiner, kühler, billiger in der produktion... was will man mehr?

*voll zustimm*

TheGood
2004-05-04, 13:26:18
NAja im Moment kann man doch immer noch nichts oo viel sagne. Jetzt haben wir hier 3 verschieden Test und jeder hat andere Ergebnisse raus. Warten wir mal noch auf die sogannten richtigen reviews :)

ow
2004-05-04, 13:28:24
.

LovesuckZ
2004-05-04, 13:30:33
Einen kleinen Crossoververgleich bezueglich der Shaderleistung in der Anwendung Shadermark V2:


Per Pixel Diffuse Lighting 894 fps 721 fps
Per Pixel Directional Light Shader (Phong) 540 fps 575 fps
Per Pixel Point Light Shader (Phong) 0 fps 556 fps
Per Pixel Spot Light Shader (Phong) 480 fps 496 fps
Per Pixel Anisotropic Lighting 539 fps 575 fps
Per Pixel Fresnel Reflections 510 fps 531 fps
Per Pixel BRDF-Phong/Anisotropic Lighting 0 fps 398 fps
Per Pixel Car Surface Shader 320 fps 381 fps
Per Pixel Environment Mapping 1257 fps 831 fps
Per Pixel Environment Bump Mapping 720 fps 671 fps
Per Pixel Bump Mapping 480 fps 516 fps
Per Pixel Shadowed Bump Mapping 337 fps 258 fps
Per Pixel Veined Marble Shader 380 fps 351 fps
Per Pixel Wood Shader 407 fps 431 fps
Per Pixel Tile Shader 260 fps 272 fps
Fur Shader With Anisotropic Lighting 42 fps 40 fps
Per Pixel Refraction and Reflection Shader with Phong Lighting 261 fps 378 fps


Links: NV40 von hexus.net
Recht: r420XT von Björn.com

perforierer
2004-05-04, 13:39:07
Original geschrieben von ow
Achso... fuer mich klang das so, als waeren die Chips sich sehr aehnlich und bei NV das Chiplayout (das versteht man gemeinhin unter Design) nur schlechter.

Da die Abwaerme direkt mit der Zahl an schaltenden Transistoren zusammenhaengt hat man bei weniger Transistoren natuerlich hier einen Vorteil.

Ja, das war von mir sehr schnell geschrieben und unhlücklich formuliert. Ich hatte ja auf ein Zitat geschrieben, bei dem ein User meinte, dass der ATI wohl nur wegen der höheren Taktung schneller wäre. Das hatte so geklungen, als wollte er den neuen ATI Chip abwerten mit den Worten: hängt ja eh nur am Takt.

Ich wollte mit meiner Aussage ausdrücken, dass es absolut legitim ist, mit ner höheren Taktung zu arbeiten. Ist ja auch ne Leistung von ATI, den Chip so hinzubekommen, dass man ihn überhaupt so hoch takten kann.

Jeder Hersteller eben einen eigenen Weg sucht, um seine Karten zu verkaufen. Der eine baut mehr Features ein, hat dafür ne stärkere Wärmeentwicklung, der andere hat Chips mit weniger Transistoren und damit mehr Abwärme. Vergleichbar sind die Chips ja trotzem :)

Majestic
2004-05-04, 13:51:35
Ich frage mich ob die Radeon bei gleicher Taktung wie die Geforce auch solche Leistung gebracht hätte wie eben diese ;)

harrypitt
2004-05-04, 13:54:39
Falls es schon einer gepostet hat dann tut es mir leid...
Hier ist der Chip.de Test:

http://www.chip.de/artikel/c_artikel_11828619.html?tid1=&tid2=

Godmode
2004-05-04, 13:56:58
Laut PCGH hat die XT 160 Mio Transistoren + Low-K und kann deshalb den Chip so hoch Takten!

Aquaschaf
2004-05-04, 13:57:07
Jetzt darf ich auf das 3DCenter Review wieder warten bis so um 16:00 der Server wieder erreichbar ist... ;)

perforierer
2004-05-04, 14:01:16
Original geschrieben von Majestic
Ich frage mich ob die Radeon bei gleicher Taktung wie die Geforce auch solche Leistung gebracht hätte wie eben diese ;)

Jo, ist theoretisch interessant, aber als Kunde imho uninteressant.

Quasar
2004-05-04, 14:02:20
Original geschrieben von LovesuckZ
Einen kleinen Crossoververgleich bezueglich der Shaderleistung in der Anwendung Shadermark V2:


Per Pixel Diffuse Lighting 894 fps 721 fps
Per Pixel Directional Light Shader (Phong) 540 fps 575 fps
Per Pixel Point Light Shader (Phong) 0 fps 556 fps
Per Pixel Spot Light Shader (Phong) 480 fps 496 fps
Per Pixel Anisotropic Lighting 539 fps 575 fps
Per Pixel Fresnel Reflections 510 fps 531 fps
Per Pixel BRDF-Phong/Anisotropic Lighting 0 fps 398 fps
Per Pixel Car Surface Shader 320 fps 381 fps
Per Pixel Environment Mapping 1257 fps 831 fps
Per Pixel Environment Bump Mapping 720 fps 671 fps
Per Pixel Bump Mapping 480 fps 516 fps
Per Pixel Shadowed Bump Mapping 337 fps 258 fps
Per Pixel Veined Marble Shader 380 fps 351 fps
Per Pixel Wood Shader 407 fps 431 fps
Per Pixel Tile Shader 260 fps 272 fps
Fur Shader With Anisotropic Lighting 42 fps 40 fps
Per Pixel Refraction and Reflection Shader with Phong Lighting 261 fps 378 fps


Links: NV40 von hexus.net
Recht: r420XT von Björn.com

Is ja grausam, wenn die Zahlen stimmen... Was die Effizienz der Pipes angeht, hat nV aber mächtig aufgeholt.

x-dragon
2004-05-04, 14:03:42
Original geschrieben von harrypitt
Falls es schon einer gepostet hat dann tut es mir leid...
Hier ist der Chip.de Test:

http://www.chip.de/artikel/c_artikel_11828619.html?tid1=&tid2= Ja wurde schon komplett heute mittag seziert :).
Original geschrieben von Aquaschaf
Jetzt darf ich auf das 3DCenter Review wieder warten bis so um 16:00 der Server wieder erreichbar ist... ;) Wieso? Dafür hat Leo doch extra einen neuen Server angeschafft! Aber hoffentlich klappt das auch alles rechtzeitig mit dem kompletten Umzug ...

Abraxaς
2004-05-04, 14:04:57
Wird die 6800GT die absolute high-end karte von nvidia oder wäre eine GT Version unter einer 6800Ultra einzuordnen?

Godmode
2004-05-04, 14:09:16
Original geschrieben von Quasar
Is ja grausam, wenn die Zahlen stimmen... Was die Effizienz der Pipes angeht, hat nV aber mächtig aufgeholt.

Naja +125 MHz sprechen für sich würd ich mal sagen!!

TomatoJoe
2004-05-04, 14:12:51
leute bin grad erst heimgekommen aebr könnt ihr mir mal sagen wei es gerade aussihet?? welche graka ist nach den ersten tests bessre?

Ghihihi
2004-05-04, 14:17:50
Original geschrieben von TomatoJoe
leute bin grad erst heimgekommen aebr könnt ihr mir mal sagen wei es gerade aussihet?? welche graka ist nach den ersten tests bessre?

Geh auf www.chip.de und schau dir die Benchmarks an.

gugu
2004-05-04, 14:19:16
Original geschrieben von TomatoJoe
leute bin grad erst heimgekommen aebr könnt ihr mir mal sagen wei es gerade aussihet?? welche graka ist nach den ersten tests bessre?

Was sagst dazu ?

http://www.chip.de/ii/21775380_f7b6a623ae.gif

Blacksoul
2004-05-04, 14:22:30
Original geschrieben von gugu
Was sagst dazu ?



Ein Bild mit einigen bunten Balken und Zahlen...
Sieht hübsch aus :)

san.salvador
2004-05-04, 14:23:23
Ich sag dazu:
Das ist von chip.de und daher den Webspace nicht wert, lieber auf den 3DC Test warten.

perforierer
2004-05-04, 14:25:36
Hehe..Oh. der Test ist von der Chip-Start-HP verschwunden..da hat wohl jemand bemerkt, dass die Sperrfrist noch net abgelaufen ist :D

ow
2004-05-04, 14:26:51
.

TomatoJoe
2004-05-04, 14:28:00
also wenn das bild stimmt, dann muss ich deftig sparen

aths
2004-05-04, 14:30:33
Original geschrieben von Demirug
Zum zweiten muss jeder Shader der eine mit 3dc komprimierte Normalmap nutz umprogrammiert werden. Das ist sehr höflich formuliert :)

aths
2004-05-04, 14:32:32
Original geschrieben von Quasar
Is ja grausam, wenn die Zahlen stimmen... Was die Effizienz der Pipes angeht, hat nV aber mächtig aufgeholt. Imo ist die Effizienz nach wie vor nicht so hoch wie beim R420.

heiliger Grakus
2004-05-04, 14:32:41
Original geschrieben von TomatoJoe
also wenn das bild stimmt, dann muss ich deftig sparen

Chip.de

Fazit: ATI deutlich vorn - Radeon rockt

ATIs Radeon X800 XT liegt in den wichtigen Benchmarks deutlich vorn. Überall, wo Nvidias GeForce 6800 Ultra vor kurzem noch Bestleistungen aufstellte, toppt der neue XT-Turbo nochmals das Ergebnis – und das mit einer hervorragenden Bildqualität.

LovesuckZ
2004-05-04, 14:35:21
Original geschrieben von aths
Imo ist die Effizienz nach wie vor nicht so hoch wie beim R420.

Man kann die Zahlen noch nicht auf die Goldwaage legen, da sie von zwei verschiedenen Quellen und damit testsystemen sind, doch selbst im Pixelshadertest des 3DMark2003 sind XT und 6800U gleichauf.
Imo ist also die Effizienz des NV40 höher, da er einen 30% niedrigen Coretakt für die selbe PS Leistung benötige.

x-dragon
2004-05-04, 14:40:01
Original geschrieben von LovesuckZ
Man kann die Zahlen noch nicht auf die Goldwaage legen, da sie von zwei verschiedenen Quellen und damit testsystemen sind, doch selbst im Pixelshadertest des 3DMark2003 sind XT und 6800U gleichauf.
Imo ist also die Effizienz des NV40 höher, da er einen 30% niedrigen Coretakt für die selbe PS Leistung benötige. Ich vermute mal das aths eine breitere Entscheidungsgrundlage hat, als nur diese beiden Tests :).

aths
2004-05-04, 14:40:30
Original geschrieben von nagus
ATi hats wieder geschafft... die karte ist schneller, leiser, leichter, kleiner, kühler, billiger in der produktion... was will man mehr? Das ist in Kürze auf einer bekannten orangen Seite zu lesen.

Spearhead
2004-05-04, 14:41:06
*auf die Uhr schiel* das nehme ich auch an ;)

<bernd>Mist!</bernd> Immer noch nicht soweit...

LovesuckZ
2004-05-04, 14:42:31
Original geschrieben von x-dragon
Ich vermute mal das aths eine breitere Entscheidungsgrundlage hat, als nur diese beiden Tests :).

ich weiß ja, dass man aths eigentlich nicht widersprechen sollte ( :) ), weil aber wenn man sich das so anguckt als Laie, dann entsteht der Eindruck, dass der NV40 bei der Abbearbeitung der PS2.0 effizienter wäre.

aths
2004-05-04, 14:43:03
Original geschrieben von LovesuckZ
Imo ist also die Effizienz des NV40 höher, da er einen 30% niedrigen Coretakt für die selbe PS Leistung benötige. Offenbar haben wir andere Vorstellungen davon, was "Effizienz" ist.

HOT
2004-05-04, 14:44:12
ATI schafft ähnliche Leistungen mit weniger Abwärme, viel weniger Transistoren und geringerer DIE Grösse. Ergo ist ATI immernoch effizienter. Der Takt ist im Grunde irrelevant, weil hier die Chips eben nicht vergleichbar sind. Das ist ähnlich wie bei Athlon und P4 ;)

Demirug
2004-05-04, 14:44:40
Original geschrieben von x-dragon
Ich vermute mal das aths eine breitere Entscheidungsgrundlage hat, als nur diese beiden Tests :).

Die PCGH hat über 1500 Shader dafür herangezogen.

Odal
2004-05-04, 14:45:56
also meinem ersteindruck nach ist der r420 doch besser geworden als ich erwartet hab..allerdings wart ich noch auf anständiege reviews...

wenn das preis leistungsverhältniss noch stimmt *grübel*

aths
2004-05-04, 14:48:47
Original geschrieben von x-dragon
Ich vermute mal das aths eine breitere Entscheidungsgrundlage hat, als nur diese beiden Tests :). Es besteht eine Chance, dass meine Vorstellung von der Pipeline grob falsch ist.

TomatoJoe
2004-05-04, 14:50:47
der guru?

Quasar
2004-05-04, 14:59:16
Original geschrieben von aths
Imo ist die Effizienz nach wie vor nicht so hoch wie beim R420. Ich meine jetzt pro Pipeline und MHz. Nicht pro Transistor.

Kann natürlich sein, daß da noch der ein oder andere Faktor, wie bsw. Temp-Register mit reinspielen, aber das kann ich nicht sagen...

Hacki_P3D
2004-05-04, 15:01:00
THG Review ist Online: http://www.tomshardware.de/graphic/20040504/index.html

DrumDub
2004-05-04, 15:01:34
wo sind die artikel, leo? ist doch schon 15:00...

MuLuNGuS
2004-05-04, 15:03:14
oh oh,

die startseite geht ja so gut wie gar nicht mehr auf..

hrhr, alle wollen wissen was leo zu sagen hat :D

ilPatrino
2004-05-04, 15:04:45
Original geschrieben von Hacki_P3D
THG Review ist Online: http://www.tomshardware.de/graphic/20040504/index.html

sieht so aus, als wäre thg vom boden der tatsachen weggenuked worden...

leooo...

Zool
2004-05-04, 15:05:59
Wirklich schwach 15:05 Uhr und immer noch kein 3d-center review. Auch bei tecchannel.de tut sich nix.

LovesuckZ
2004-05-04, 15:07:30
Hat ATi eigentlich irgendwas am Chip veraendert, außer dem F-Buffer und den zusaetzlichen Pipelines?
Nichtmal das AF wurde geaendert und ist immer noch schlechter als das des NV40...

Odal
2004-05-04, 15:07:33
Original geschrieben von DrumDub
wo sind die artikel, leo? ist doch schon 15:00... :heul:

Leo hat die Zeit verpennt hrhr

:cop: Leo aufwachen :cop:

SKYNET
2004-05-04, 15:07:53
Original geschrieben von Zool
Wirklich schwach 15:05 Uhr und immer noch kein 3d-center review. Auch bei tecchannel.de tut sich nix.

jo, immer diese lamer :(

aths
2004-05-04, 15:07:53
Original geschrieben von Quasar
Ich meine jetzt pro Pipeline und MHz. Nicht pro Transistor.

Kann natürlich sein, daß da noch der ein oder andere Faktor, wie bsw. Temp-Register mit reinspielen, aber das kann ich nicht sagen... Der NV40 hat mehr Rechenunits pro Pipe, demzufolge mehr Rechenkraft. Diese ist aber schwieriger auszunutzen.

Quasar
2004-05-04, 15:08:05
http://www.3dcenter.org/artikel/R420_benchmarks/

Selber Trick wie bei THG. Das kommt von "sprechenden" Artikelnamen.

MechWOLLIer
2004-05-04, 15:08:14
Der Technikartikel von Aths ist endlich online!!!1111

aths
2004-05-04, 15:08:52
Original geschrieben von LovesuckZ
Hat ATi eigentlich irgendwas am Chip veraendert, außer dem F-Buffer und den zusaetzlichen Pipelines?
Nichtmal das AF wurde geaendert und ist immer noch schlechter als das des NV40... Hm. Bugfixing beim HyperZ, und die Vermarktung einer 2-Kanal-DXT5-Version als 3Dc.

DrumDub
2004-05-04, 15:10:54
techreport.com: http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=1

perforierer
2004-05-04, 15:11:03
Gekürztes Fazit von Tomshardware:

"Kaum hat man sich von der beeindruckenden Vorstellung der neuen NVIDIA GeForce 6800 Ultra erholt, schlägt ATI erbarmungslos zurück. Dank der überlegenen Performance bei Einsatz von anisotroper Filterung weist die Radeon X800 XT Platinum Edition die Konkurrenz deutlich in ihre Schranken, ohne das dabei die Bildqualität zu kurz käme. Selbst die deutlich günstigere und nur mit 12 Pipelines bestückte Radeon X800 Pro schlägt die GeForce 6800 Ultra hier in einigen Spielen. Gerade der um €100 günstigere Preis ist hier für viele sicherlich ein sehr starkes Argument. Ohne anisotrope Filterung und bei alleinigem Einsatz von FSAA liegt allerdings oft die GeForce 6800 Ultra vorne."

http://www.de.tomshardware.com/graphic/20040504/ati-x800-40.html

Odal
2004-05-04, 15:12:24
Radeon X800XT Platinium Radeon X800 Pro GeForce 6800 Ultra
Codename ATi R420 nVidia NV40
Herstellung 160 Mill. Tr. in 130nm 222 Mill. Tr. in 130nm
Technologie-Klasse DirectX9 Shader 2.0 DirectX9 Shader 3.0
Grund-Architektur 12x1 16x1 16x1 (bzw. 32x0)
Chiptakt 475 MHz 520 MHz 400 MHz
Speichertakt 450 MHz 560 MHz 550 MHz
Speicheranbindung 256 Bit 256 Bit 256 Bit
Speicherausstattung 256 MB GDDR3 256 MB GDDR3 256 MB GDDR3
US-Listenpreis 399 $ 499 $ 499 $
deutscher Listenpreis ? ? 549 €

...


(aus dem artikel)
da is pro und xt verwechselt ;)

ohno
2004-05-04, 15:12:24
Original geschrieben von Quasar
http://www.3dcenter.org/artikel/R420_benchmarks/

Selber Trick wie bei THG. Das kommt von "sprechenden" Artikelnamen.

Öhm nur die Pro getestet :(

INTRU
2004-05-04, 15:13:18
http://www.heise.de/newsticker/meldung/47093

GRiNSER
2004-05-04, 15:13:27
ich finde das 3dcenter.de review wunderbar - auch wenn es noch nicht verlinkt ist :P

DrumDub
2004-05-04, 15:17:21
krass:

http://techreport.com/reviews/2004q2/radeon-x800/rightmark-fillrate.gif

perforierer
2004-05-04, 15:17:34
Hard ocp Review:
http://www.hardocp.com/article.html?art=NjEx

TomatoJoe
2004-05-04, 15:19:37
auf 3d center is der 6800ultra test

Majestic
2004-05-04, 15:20:21
Der Link zum X800 ist irgenwie falsch verlinkt auf der Haupseite ;D

san.salvador
2004-05-04, 15:24:23
Hab ich mit meiner 9700 Pro auch die Chance auf Temp AA? Eventuell im 4.5er?

MechWOLLIer
2004-05-04, 15:25:38
Original geschrieben von san.salvador
Hab ich mit meiner 9700 Pro auch die Chance auf Temp AA? Eventuell im 4.5er?

Ja
Lies dazu einfach den Tech-Artikel

nimi
2004-05-04, 15:26:50
http://www.3dcenter.org/artikel/r42...rks/index17.php


Mit voller Quali ist der NV40 ein ganz kleines Licht

Lokadamus
2004-05-04, 15:30:58
mmm...

nimi
Dein Link geht nicht, du meinst aber wohl den Far Cry- Test (http://www.3dcenter.org/artikel/r420_benchmarks/index17.php) von 3D Center. Leider wird dabei nicht die XT- Variante getestet :(, sieht aber alleine schon für die Pro- Variante sehr gut aus ...

Karümel
2004-05-04, 15:31:08
:D
http://www.gamestar.de/magazin/specials/hardware/17384/

DrumDub
2004-05-04, 15:31:38
für die stromsparer:. ;)

http://techreport.com/reviews/2004q2/radeon-x800/power.gif

kiss
2004-05-04, 15:32:16
Irgendwie ist der NV40 besser!
nVidia sollte aber erstmal mal ordentliche treiber rausbringen, vielleicht steigt die Performance noch mehr!

Mich überzeugt der r420 nur in FarCry, aber das soll ja noch Probleme mit dem NV40 haben. Ausserdem bei 6AA, wirklich super performance.
Bin aber trotzdem etwas entäuscht vom R420....
Einfach mehr Takt, mehr Pipes und das war es auch!
Toll!!
Und dafür haben sie ca 3 Jahre gebraucht ;D

san.salvador
2004-05-04, 15:32:39
Original geschrieben von Karümel
:D
http://www.gamestar.de/magazin/specials/hardware/17384/

lol, da sich das überhaupt noch trauen.... oder machen die das zur allgemeinen Belustigung? ;D

LovesuckZ
2004-05-04, 15:33:35
Ist bei der r420 Karte unter D3D immer noch die Stageoptimierung aktiv?

rüttel
2004-05-04, 15:33:43
Original geschrieben von kiss
Irgendwie ist der NV40 besser!
nVidia sollte erstmal mal ordentliche treiber rausbringen.

Mich überzeugt der r420 nur in FarCry, aber das soll ja noch Probleme mit dem NV40 haben. Ausserdem bei 6AA, wirklich super performance.
Bin etwas entäuscht vom R420....
Einfach mehr Takt, mehr Pipes und das war es auch!
Toll!!
Und dafür haben sie ca 3 Jahre gebraucht ;D

Ich glaub du träumst schau die Benchmarks an

Karümel
2004-05-04, 15:34:22
Was mich stört ist dieser kleine Satz aus Leo´s Review:

Das einzige Problem stellt der Treiber dar, welcher unter einigen Settings in einigen Spielen kein Anti-Aliasing darstellen wollte.

Wieso schafft es ATI nicht endlich mal gute Treiber zu machen :(

Benedikt
2004-05-04, 15:35:32
Hi Leute,

hat schon irgendwer irgendwo HL2-Benches gefunden?

MFG,
BW

Hacki_P3D
2004-05-04, 15:36:39
http://www.extremetech.com/article2/0,1558,1583627,00.asp

jimi
2004-05-04, 15:37:47
Original geschrieben von Karümel
Was mich stört ist dieser kleine Satz aus Leo´s Review:

Das einzige Problem stellt der Treiber dar, welcher unter einigen Settings in einigen Spielen kein Anti-Aliasing darstellen wollte.

Wieso schafft es ATI nicht endlich mal gute Treiber zu machen :(

Die Treiber sind super, null Probs außerdem sind Karten noch nicht da.

NV macht viel mehr Bildfehler zurZeit

Mmmhhhh
2004-05-04, 15:39:15
Finde die 800Pro ziemlich interessant.

Wird sich wohl bei einem Preis von 400 Euro zu Beginn einpendeln, das sind ca. 120-150 Euro weniger als bei einer 6800Ultra. Zudem bietet sie geringeren Strombedarf (sogar geringer als die "allte" 9800XT) und nur einen Molex. Die gringeren Abmessungen des Lüfters sind auch nicht zu verachten. Hinzu kommt der geringere Geräuschpegel als beim NV-Board.

aths
2004-05-04, 15:39:36
Original geschrieben von nimi
http://www.3dcenter.org/artikel/r42...rks/index17.php


Mit voller Quali ist der NV40 ein ganz kleines Licht Angesichts von 4x Supersampling hält sich der NV40 erstaunlich gut.

kiss
2004-05-04, 15:43:27
Original geschrieben von rüttel
Ich glaub du träumst schau die Benchmarks an


Wenn du meinst!
Dann guck sie dir nochmal genau an!

aths
2004-05-04, 15:43:41
Original geschrieben von LovesuckZ
Ist bei der r420 Karte unter D3D immer noch die Stageoptimierung aktiv? Standardmäßig ja. Darauf angesprochen meinte ATI, das würde auch so bleiben.

SKYNET
2004-05-04, 15:44:32
wo zum verfluchtem schxxxx dreck sind die 3Dmark 2001 benches ?

*grrr*

irgentwer ne seite gefunden wo die 2001 gebencht haben ?

lili
2004-05-04, 15:45:07
Original geschrieben von kiss
Wenn du meinst!
Dann guck sie dir nochmal genau an!

Und jetzt du und schau genau auf die Fillrate Leistung

http://techreport.com/reviews/2004q...rk-fillrate.gif

3Dcenter

http://www.3dcenter.org/artikel/r42...rks/index17.php

hrr
2004-05-04, 15:45:57
die demos sond on ... mal sehen ob die
auf ner 9800 überhaupt starten *g*

http://www.ati.com/online/radeonx800/doublecross1.html

LovesuckZ
2004-05-04, 15:46:29
Original geschrieben von aths
Standardmäßig ja. Darauf angesprochen meinte ATI, das würde auch so bleiben.

Das erklaert dann wohl auch den guten D3D Speed mit AA + AF.

ow
2004-05-04, 15:47:05
.

[DH]Avenger
2004-05-04, 15:47:27
Ähem, die R420 PS sind nicht Klasse 2.0, sondern 2.0+. Ihnen fehlt als einziges Features das direkte Texturefetching aus den Shadern. Ansonsten sind sie vollkommen PS 3.0 kompatibel und programmierbar.

aths
2004-05-04, 15:48:18
Original geschrieben von [DH]Avenger
Ähem, die R420 PS sind nicht Klasse 2.0, sondern 2.0+. Ihnen fehlt als einziges Features das direkte Texturefetching aus den Shadern. Ansonsten sind sie vollkommen PS 3.0 kompatibel und programmierbar. Nein, für 3.0-Compliance fehlt sehr viel mehr.

2.0+ gibt es weder als Version, noch als Profil. Das ist eine Marketing-Erfindung von Nvidia.

Lokadamus
2004-05-04, 15:48:30
Original geschrieben von kiss
Wenn du meinst!
Dann guck sie dir nochmal genau an! mmm...

Sorry, aber da hast du den Test nicht richtig gelesen. 3D Center hat nicht das Topmodell von ATI bekommen, sondern nur die einfache Variante (XT ist die HighEnd- Variante, nicht die Pro), welche sich aber sehr gut mit dem derzeitigen HighEnd-Gerät von NVidia anlegt und dabei nur minimal schlechter ist. So gesehen kann man nur noch nach dem Preis gehen, die Pro wird ca. 400 - 450 Euro kosten, die 6800 U und ATI's XT wird wohl 500 Euro und mehr kosten, welche würdest du eher empfehlen ?
Wegen Treiber: ATI ist es, der seit Jahren keine ordentlichen Treiber schreiben kann, warum NVidia sich das abgeguckt hat, weiss niemand ...

huh
2004-05-04, 15:48:43
waren die r350 shader net auch schon 2.0+?

aths
2004-05-04, 15:50:32
Original geschrieben von huh
waren die r350 shader net auch schon 2.0+? Es gibt kein 2.0+. Im Technik-Artikel ist das genauer erklärt: http://www.3dcenter.de/artikel/r420_technik/index2.php

[DH]Avenger
2004-05-04, 15:50:48
Original geschrieben von aths
Nein, für 3.0-Compliance fehlt sehr viel mehr.

2.0+ gibt es weder als Version, noch als Profil. Das ist eine Marketing-Erfindung von Nvidia.

Nein fehlt Ihnen nicht. Zumindest hat das ATI so in Genf gesagt und auch nochmal per EMail bestätigt.

aths
2004-05-04, 15:53:43
Original geschrieben von LovesuckZ
Das erklaert dann wohl auch den guten D3D Speed mit AA + AF. Bei 3DCenter (http://www.3dcenter.org/artikel/r420_benchmarks/index7.php) doch nicht:

"Hierbei gilt zu beachten, daß wir uns dafür entschieden haben, alle Vergleiche und Benchmarks mit der ATi-Karte unter der Einstellung des vollen trilinearen Filters zu betreiben, welche man mit dem rTool einstellen kann, was im übrigen auch bei der X800 Pro hervorragend (und nachweislich) funktioniert."

Geht übrigens auch mit dem aTuner – wenn die HW-Erkennung entsprechend erweitert wurde.

san.salvador
2004-05-04, 15:54:19
Original geschrieben von hrr
die demos sond on ... mal sehen ob die
auf ner 9800 überhaupt starten *g*

http://www.ati.com/online/radeonx800/doublecross1.html

Kann die bitte wer testen/hat die schon jemand getestet?
Ich hab ne 9700 Pro und Downloadlimit, ich möcht des net umsonst saugen. :)

Quasar
2004-05-04, 15:54:34
Original geschrieben von huh
waren die r350 shader net auch schon 2.0+?

Wenn du 2.0+ so auslegst, daß sie (nicht näher spezifizierte) Fähigkeiten haben, die über die DX9 PS2.0 Mindestanforderung hinausgehen: ja.

aths
2004-05-04, 15:55:03
Original geschrieben von [DH]Avenger
Nein fehlt Ihnen nicht. Doch.
Original geschrieben von [DH]Avenger
Zumindest hat das ATI so in Genf gesagt und auch nochmal per EMail bestätigt. ATI schreibt auch im Presse-Material jede Menge Unsinn. Zum Beispiel, wie neu 3Dc sei. Die ganzen 3Dc-Vorteile sind nichts weiter als zusätzliche Pixelshader-Arbeit, während 3Dc ansich ein auf 2 Kanäle reduziertes DXT5 ist.

Beim Pixelshader zählt ATI die Modifier zum Instruction Count dazu, was, sagen wir mal, sehr unüblich ist.

DrumDub
2004-05-04, 15:55:48
Original geschrieben von [DH]Avenger
Nein fehlt Ihnen nicht. Zumindest hat das ATI so in Genf gesagt und auch nochmal per EMail bestätigt.

du kapierst es nicht. es gibt 2_a und 2_b als compilerprofil für hlsl, aber kein 2.0+. genausowenig gibt es ein dx9.0+.

Winter[Raven]
2004-05-04, 15:56:12
Laut extremetech.com

Advantage ATI:

Lower power draw
Single slot card--will fit into small form-factor PC cases like Shuttle's
3Dc normal map compression
Advantage nVidia:

Shader Model 3.0 support
Better OpenGL performance
Better performance at the $399 price point

Dort kann der ist etwas schneller oder gleicht einer R420XT.

Standardmäßig ja. Darauf angesprochen meinte ATI, das würde auch so bleiben.

Also sind die benches mal wieder zum Teil für die Mülltonne. Solange man nicht gleich filtert sehe ich den NV40 als gewinner.

Quasar
2004-05-04, 15:56:17
Original geschrieben von aths
Bei 3DCenter (http://www.3dcenter.org/artikel/r420_benchmarks/index7.php) doch nicht:

"Hierbei gilt zu beachten, daß wir uns dafür entschieden haben, alle Vergleiche und Benchmarks mit der ATi-Karte unter der Einstellung des vollen trilinearen Filters zu betreiben, welche man mit dem rTool einstellen kann, was im übrigen auch bei der X800 Pro hervorragend (und nachweislich) funktioniert."

Geht übrigens auch mit dem aTuner – wenn die HW-Erkennung entsprechend erweitert wurde.
Womit ist das nachgewiesen worden? AF-Tester oder Füllratenmessungen?

aths
2004-05-04, 15:57:18
Original geschrieben von Quasar
Womit ist das nachgewiesen worden? AF-Tester oder Füllratenmessungen? Soll ich dir den Artikel vorlesen? :)

Leo hat es "nachweislich" festgestellt. (Mit Testern, und mit Benchmarks, falls es interessiert.)

ow
2004-05-04, 15:57:20
.

ow
2004-05-04, 15:59:00
.

DrumDub
2004-05-04, 16:01:05
danke, leo:

Dennoch gewinnt laut unseren Messungen in diesem Setting mehrheitlich nVidia. Ein Grund dafür könnte sicherlich sein, daß wir in unseren Benchmark den bilinearen Texturenfilter auf den Texturenstufen 1-7 unter Direct3D bei beiden Radeon-Karten konsequent ausgeschaltet haben, was ATi bei den eigenen Benchmarks mit Sicherheit nicht getan. Doch dieses Ausschalten jener ATi-Optimierung ist unserer Meinung nach zwingend notwendig, schließlich wurde auf der nVidia-Seite ja auch deren trilineare Optimierung deaktiviert.

die anderen tests in netz kann man somit getrost vergessen... quasar hatte also doch recht.

Fadl
2004-05-04, 16:03:13
Original geschrieben von DrumDub
danke, leo:



die anderen tests in netz kann man somit getrost vergessen... quasar hatte also doch recht.

Woher willst du wissen das jeder die trilineare optimierung bei Nvidia deaktiviert hat?

ow
2004-05-04, 16:06:48
.

hrr
2004-05-04, 16:07:35
also die demos lassen sich net starten ->

this demo requires support of directx 9.0b
pixel shaders v2.b

wenn man ne x800 hat soll man sich nen neuen treiber
von ati saugen :(

Uller
2004-05-04, 16:09:05
Sehr viel Unterschied macht das nun wirklich nicht, ob die trilineare Optimierung an ist oder nicht, auf die <5% muss man wirklich nichts geben...

http://www.hothardware.com/articleimages/Item517/ut1600triopt.png

bzw.

http://www.hothardware.com/viewarticle.cfm?articleid=517

ow
2004-05-04, 16:09:53
.

DrumDub
2004-05-04, 16:12:40
Original geschrieben von Fadl
Woher willst du wissen das jeder die trilineare optimierung bei Nvidia deaktiviert hat?

hier wurde sie z.b. beim nv40 deaktiviert: http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=6

im thg-test wird das ganze nicht erwähnt.

auch interessant:

Bei Betrachtung der Texturen sieht das Ganze weit weniger dramatisch aus. Dennoch sind bei der GeForce 6800 Ultra einige Unterschiede erkennbar. Die NVIDIA GeForce 6800 Ultra liefert hier das korrekte Ergebnis, obwohl Refrast und die X800 beim direkten Vergleich der Screenshots ein besseres aussehen. Ursache sind die Einrückungen im 45 Grad Bereich. In diesen Bereichen wird dadurch eine höhere Mipmap verwendet, aber eben nur in diesem Bereich des Bildes. Dadurch kann es in bewegten Bildern an diesen Stellen zu Textur-Flackern kommen.


Hier ist ein offizieller Kommentar von Microsoft:

Quote: "The DX9 reference rasterizer does not produce an ideal result for level-of-detail computation for isotropic filtering, the algorithm used in NV40 produces a higher quality result. Remember, our API is constantly evolving as is graphics hardware, we will continue to improve all aspects of our API including the reference rasterizer."
http://www.de.tomshardware.com/graphic/20040504/ati-x800-36.html

das bestätigt, dass nvidia korrekter filtert (was demirug ja auch meinte) und damit der driverheaven-af-"test" getrost als schwachsinn betrachtet werden kann...

aths
2004-05-04, 16:13:13
Original geschrieben von ow
Nix fuer ungut aths, aber dieser Satz ist dir "nachweislich" schwergefallen, wenn du da schon 2x editieren musstest. :D Weder mit meinen Nerven, noch mit meinem Gedächnis steht es heute zum besten.

Quasar
2004-05-04, 16:14:24
Original geschrieben von aths
Soll ich dir den Artikel vorlesen? :)

Leo hat es "nachweislich" festgestellt. (Mit Testern, und mit Benchmarks, falls es interessiert.)

Ja, es interessiert(e), da Programme, insbesondere, wenn sie so oft genutzt werden, wie AF Tester, der Gefahr der Manipulation von Außen näher rücken.

Aber auf dein Angebot, mir den Artikel vorzulesen, komme ich beizeiten gern zurück.

Geht das auch auf Mittelhochdeutsch?

DrumDub
2004-05-04, 16:16:03
Original geschrieben von Uller
Sehr viel Unterschied macht das nun wirklich nicht, ob die trilineare Optimierung an ist oder nicht, auf die <5% muss man wirklich nichts geben...

http://www.hothardware.com/articleimages/Item517/ut1600triopt.png

bzw.

http://www.hothardware.com/viewarticle.cfm?articleid=517

es geht aber nicht so sehr um den unterschied beim nv40, sondern eher um den unterschied beim r420 durch die stageoptimierung, die mal wieder kein reviewer außer leo und aths mitbekommen hat.

ow
2004-05-04, 16:17:57
.

aths
2004-05-04, 16:18:35
Original geschrieben von DrumDub
das bestätigt, dass nvidia korrekter filtert und damit der driverheaven-af-"test" getrost als schwachsinn betrachtet werden kann... Das bestätigt erst mal gar nichts. Ich habe Leo gebeten, in der News bezüglich meiner Behauptung im NV40-Artikel meine Schlussfolgerung erst mal unter Vorbehalt zu stellen, aber wirklich bestätigt sehe ich das im Moment nicht.

Sobald wir wieder NV40-Hardware haben, möchte ich da einen bestimmten Test machen, um zu sehen, welche Variante die bessere ist.

FormatC
2004-05-04, 16:18:41
Was ist unter "3Dc" zu verstehen?

Aquaschaf
2004-05-04, 16:19:05
Bringt die Stage-Optimierung bei der Limitierung durch Bandbreite überhaupt noch viel?

Aquaschaf
2004-05-04, 16:19:29
Original geschrieben von FormatC
Was ist unter "3Dc" zu verstehen?

Les den verdammten Artikel :p

loool
2004-05-04, 16:19:46
Hier wurde was falsch gemacht,das Game läuft in diesen Settings bei mir doppelt so schnell

http://www.3dcenter.org/artikel/r420_benchmarks/index27.php

Uller
2004-05-04, 16:21:48
Es hat doch gerade einer nach 3DMark2001 gefragt:

http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTgmdXJsX3BhZ2U9MTc=

Ati gewinnt ;)

aths
2004-05-04, 16:22:19
Original geschrieben von Aquaschaf
Bringt die Stage-Optimierung bei der Limitierung durch Bandbreite überhaupt noch viel? Diese "Optimierung" spart zunächst Füllrate, damit dann auch Bandbreite.

x-dragon
2004-05-04, 16:22:19
Original geschrieben von loool
Hier wurde was falsch gemacht,das Game läuft in diesen Settings bei mir doppelt so schnell

http://www.3dcenter.org/artikel/r420_benchmarks/index27.php Was hast du denn für ein System?

DrumDub
2004-05-04, 16:22:47
Original geschrieben von ow
hmm....also unter unseren Gurus hier ist dazu noch keine abschliessende Entscheidung gefaellt worden.:D
die wuerde ich mal noch abwarten...evtl. kommt ja noch raus, welche Algorithmen da genutzt werden.

na ja, wenn ms es schon bestätigt im bezug auf den lod. das natürlich das af des nv25 besser ist, als das des r420 und nv40, ist natürlich ne andere sache.

liiil
2004-05-04, 16:23:54
Gibts eine Seite die HL2 getestet hat ?

postet mal Links

LovesuckZ
2004-05-04, 16:25:23
Original geschrieben von liiil
Gibts eine Seite die HL2 getestet hat ?

postet mal Links

Warte auf xbitlabs.com. Die testen die Beta.

DrumDub
2004-05-04, 16:25:59
Original geschrieben von aths
Diese "Optimierung" spart zunächst Füllrate, damit dann auch Bandbreite.

erklärt die stage-optimierung dieses ergebnis?

http://techreport.com/reviews/2004q2/radeon-x800/rightmark-fillrate.gif

san.salvador
2004-05-04, 16:26:55
Original geschrieben von liiil
Gibts eine Seite die HL2 getestet hat ?

postet mal Links

HL2 gibts noch net, von daher kanns eigentlich auch keine halbwegs brauchbaren Benches geben, oder?

aths
2004-05-04, 16:30:40
Original geschrieben von DrumDub
erklärt die stage-optimierung dieses ergebnis?Testen die mit AF?

Was ist das
2004-05-04, 16:33:30
Folgende Spieletitel werden die 3Dc Komprimierungstechnik unterstützen:

Serious Sam 2
Tribes Vengeance
Pirates
DarkSector
Half Life 2
Weitere sollen folgen

Quelle:
http://www.ati-news.de/HTML/Berichte/ATI/R420/R420-Seite4.shtml

Mmmhh kein Doom3.

DrumDub
2004-05-04, 16:35:14
Original geschrieben von aths
Testen die mit AF?

steht leider nicht dabei. aber das ergebnis ist imho schon sehr merkwürdig. auch beim 3dmark03 überholt die x800xt die 6800ue bei multitexturing, während sie bei singeltexturing zurückliegt: http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=7

und bei 3dmark03 ist die stageoptimierung doch aktiv in der standardeinstellung (4xaf, wenn ich mich recht entsinne), oder?

dildo4u
2004-05-04, 16:36:30
http://img.hexus.net/v2/graphics_cards/ati/r420/images/ut2003.png

http://www.hexus.net/
Wenn man mit na richtigen cpu testet hier A64FX ist der vorsprung für ATI gewaltig vielicht sind die treiber für AMD auch besser optemiert

Majestic
2004-05-04, 16:36:59
http://www.tecchannel.de/hardware/1384/index.html
Hehe die GF6800UE schlägt das Spitzenmodel RADEON X800 XT Platinum Edition von ATI :) Zugegeben die Leistungsaufnahme der Geforce ist gewaltig, aber wer soviel Geld für ne Grafka ausgibt kann auch die paar Euro für ein neues Netzteil ausgeben. Geforce rulez.

Ahhhhhh
2004-05-04, 16:38:49
Original geschrieben von Majestic
http://www.tecchannel.de/hardware/1384/index.html
Hehe die GF6800UE schlägt das Spitzenmodel RADEON X800 XT Platinum Edition von ATI :) Zugegeben die Leistungsaufnahme der Geforce ist gewaltig, aber wer soviel Geld für ne Grafka ausgibt kann auch die paar Euro für ein neues Netzteil ausgeben. Geforce rulez.

Na ja, irgendwann ist das Aufwand-Nutzen-Verhältnis nicht mehr unbedingt verhältnismäßig;)

Fadl
2004-05-04, 16:38:59
Original geschrieben von Majestic
http://www.tecchannel.de/hardware/1384/index.html
Hehe die GF6800UE schlägt das Spitzenmodel RADEON X800 XT Platinum Edition von ATI :) Zugegeben die Leistungsaufnahme der Geforce ist gewaltig, aber wer soviel Geld für ne Grafka ausgibt kann auch die paar Euro für ein neues Netzteil ausgeben. Geforce rulez.
Glaubst du das wirklich? Wegen 50Mhz mehr soll sie teilweise deutliche Rückstände aufholen können? Also auf mich wirkt der tecchannel test äusserst zweifelhaft.

DrumDub
2004-05-04, 16:40:39
Original geschrieben von dildo4u
http://img.hexus.net/v2/graphics_cards/ati/r420/images/ut2003.png

http://www.hexus.net/
Wenn man mit na richtigen cpu testet hier A64FX ist der vorsprung für ATI gewaltig vielicht sind die treiber für AMD auch besser optemiert

dir ist aber der unterschied zwischen 6xrgms von ati und dem 8xogss+rgms modus von nvidia klar, oder?

Wiedermal
2004-05-04, 16:42:02
Original geschrieben von Ahhhhhh
Na ja, irgendwann ist das Aufwand-Nutzen-Verhältnis nicht mehr unbedingt verhältnismäßig;)

...sonst könnte auch ATI eine Maxx-Version rausbringen. Die würde wahrscheinlich ein Vermögen kosten und ein Atomkraftwerk zum Betrieb benötigen.

Uller
2004-05-04, 16:42:10
O/Cing bringt scheinbar gewaltig was, von daher dürfte der neue Liebling nicht X800XT, nicht X800Pro, und auch nicht 6800 UE heißen, sondern: 6800 GT.
Siehe hier:
http://www.firingsquad.com/hardware/geforce_6800_ultra_extreme/page22.asp

Ist durch Übertakten schneller als die 6800UE, aber 200€ billiger. Kommt fast schon an die übertaktete 6800UE ran, ist ja klar dass da nicht mehr viel geht (beim Takt der 6800 UE).

LovesuckZ
2004-05-04, 16:43:18
Wurden eigentlich die "Filtertricks" beim r420 behoben?

fsdfdd
2004-05-04, 16:44:29
Original geschrieben von DrumDub
dir ist aber der unterschied zwischen 6xrgms von ati und dem 8xogss+rgms modus von nvidia klar, oder?

Na ja, 240 zu 170 bei 1024 und 4xAA/8xAF macht trotzdem einen Vorsprung von 40%.

kiki
2004-05-04, 16:45:35
Original geschrieben von Majestic
http://www.tecchannel.de/hardware/1384/index.html
Hehe die GF6800UE schlägt das Spitzenmodel RADEON X800 XT Platinum Edition von ATI :)

Blödsinn schau hier

Farcry

http://techreport.com/reviews/2004q2/radeon-x800/farcry.gif

UT2004

http://img.hexus.net/v2/graphics_cards/ati/r420/images/ut2003.png

dildo4u
2004-05-04, 16:46:56
Original geschrieben von DrumDub
dir ist aber der unterschied zwischen 6xrgms von ati und dem 8xogss+rgms modus von nvidia klar, oder? ick mein ja auch bei 4xaa und 8 aniso 170 gegen 240fps

FormatC
2004-05-04, 16:47:06
Original geschrieben von LovesuckZ
Wurden eigentlich die "Filtertricks" beim r420 behoben?

Laut 3Dcenter-Artikel liegt da alles beim alten.

DrumDub
2004-05-04, 16:47:17
Original geschrieben von LovesuckZ
Wurden eigentlich die "Filtertricks" beim r420 behoben?

na ja, wie soll das denn gehen, wenn das af dasselbe wie auf dem r3x0 ist?

aths
2004-05-04, 16:48:19
Original geschrieben von DrumDub
steht leider nicht dabei. aber das ergebnis ist imho schon sehr merkwürdig. auch beim 3dmark03 überholt die x800xt die 6800ue bei multitexturing, während sie bei singeltexturing zurückliegt: http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=7Würde ich erst mal an Zeichen von Füllratenstärke kombiniert mit Bandbreitenmangel werten.
Original geschrieben von DrumDub
und bei 3dmark03 ist die stageoptimierung doch aktiv in der standardeinstellung (4xaf, wenn ich mich recht entsinne), oder? So genau kenne ich mich beim 3DMark nicht aus.

dildo4u
2004-05-04, 16:48:54
Original geschrieben von LovesuckZ
Wurden eigentlich die "Filtertricks" beim r420 behoben? selbe bild quali wie R300 und damit schon mehrmals preisgekrönt test sieger geworden wenns dir nicht reicht kauf Nvidia hält dich kein von ab:-)

LovesuckZ
2004-05-04, 16:49:00
Original geschrieben von DrumDub
na ja, wie soll das denn gehen, wenn das af dasselbe wie auf dem r3x0 ist?

Es ist ja nicht nur das AF.
Nunja, dann ist der r420 eine Enttaeuschung. Nur 3Dc und das innerhalb von 2 Jahren...

(del676)
2004-05-04, 16:49:00
Original geschrieben von kiki
Blödsinn schau hier

Farcry

http://techreport.com/reviews/2004q2/radeon-x800/farcry.gif

UT2004

http://img.hexus.net/v2/graphics_cards/ati/r420/images/ut2003.png

da kann ich genau dasselbe posten:

blödsinn schau hier:

http://common.ziffdavisinternet.com/util_get_image/6/0,1311,sz=1&i=67996,00.gif

http://common.ziffdavisinternet.com/util_get_image/6/0,1311,sz=1&i=67997,00.gif