PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Habt ihr's gesehen?


Seiten : [1] 2

Quasar
2004-05-03, 21:59:39
Eben war für ein paar Minuten das R420-Review von THG online...

Mit R420XT und Pro...
Mit gaaanz viel Marketing aus ATis PDFs...
Mit teils erstaunlichen Ergebnissen...

(del676)
2004-05-03, 22:03:10
WOS WOOOO`?????
HAST SCREENS?
GIB
SCHAU IM CACHE

*SABBER*

Godmode
2004-05-03, 22:03:46
Original geschrieben von Quasar
Eben war für ein paar Minuten das R420-Review von THG online...

Mit R420XT und Pro...
Mit gaaanz viel Marketing aus ATis PDFs...
Mit teils erstaunlichen Ergebnissen...

:chainsaw:

aajashdfkölsjfsaljksaf

hast du einen Screene????????

holy quasar give us the sheets :)


edit: erstaunlich im positven Sinne oder im negativen?

TheCounter
2004-05-03, 22:05:08
Quasar, schick mir das Zeug, ich lads auf meinen Server rauf :D ;D

LovesuckZ
2004-05-03, 22:09:55
was heißt "erstaunlich"?
Bitte, halt uns nicht auf dem laufenden (oder stellt das Review des NV40's bei CB.de hoch :) ).

Godmode
2004-05-03, 22:11:58
Original geschrieben von LovesuckZ
was heißt "erstaunlich"?
Bitte, halt uns nicht auf dem laufenden (oder stellt das Review des NV40's bei CB.de hoch :) ).

Wieso? haben die schon ein neues Sample mit 450 MHz?

In der 3DC News schreiben sie ja irgendwas, das morgen noch ein GPU relauncht wird!!

TomatoJoe
2004-05-03, 22:19:38
ERZÄHL

mike49
2004-05-03, 22:19:41
Zumindest wirst du ja wohl noch ein bißchen was aus deinem Kurzzeitgedächtnis rauskramen können, Quasar? ;)

Oder mußtest du etwa ein NDA unterzeichnen, bevor sich die THG Seite geöffnet hat?

Corny
2004-05-03, 22:23:05
hast du wirklich nix mehr??
internet explorer/opera cache durchsuchen, da finden sich immer noch ein paar (hoffentlich brauchbare) reste

kiss
2004-05-03, 22:23:45
Will auch wissen!

Quaser erzähl es.... :)





wahrscheinlich war er so geschockt von den Ergebnissen, das er sie sofort wieder vergessen hat! :D

Iwan
2004-05-03, 22:24:58
Den einen Tag kann mans auch noch ohne Test-Reste aushalten :bäh: und das THG net so ganz normal is, is ja wohl bekannt... ;D

(del676)
2004-05-03, 22:25:05
hmmm
QUASAAAAAAAAAAAAARRRRRRRRRRRRRRRRRRRR

fürn 1. April Scherz wars ein bisl zu spät :P

Salvee
2004-05-03, 22:25:39
Quasar, dir fallen doch gewiss einige Synonyme für 'erstaunlich' ein... ;)

TheCounter
2004-05-03, 22:25:46
Original geschrieben von Iwan
Den einen Tag kann mans auch noch ohne Test-Reste aushalten :bäh: und das THG net so ganz normal is, is ja wohl bekannt... ;D

Ich wills aba jetzt wissen :bäh:

Quasar macht hier schon alle total heiß ;D

Corny
2004-05-03, 22:25:50
Original geschrieben von Iwan
Den einen Tag kann mans auch noch ohne Test-Reste aushalten :bäh: und das THG net so ganz normal is, is ja wohl bekannt... ;D


aber die benches wären zumindest ein anhaltspunkt.

wenn der R420 was taugt wird er meine Radeon8500 ablösen dürfen :)

Corny
2004-05-03, 22:26:36
Original geschrieben von TheCounter
Ich wills aba jetzt wissen :bäh:

Quasar macht hier schon alle total heiß ;D


der machts sicher mit absicht und geilt sich daran auf ;)

Quasar
2004-05-03, 22:27:25
Sorry, darf ich leider nicht...

[dzp]Viper
2004-05-03, 22:27:54
/edit: ich war zu langsam :D

Karlsson
2004-05-03, 22:28:23
:uhippie:

TheCounter
2004-05-03, 22:29:52
Original geschrieben von Quasar
Sorry, darf ich leider nicht...

Na das bild passt doch schonmal, mehr :)

Zu dem Bild sag ich einfach mal: w00t :D

kiss
2004-05-03, 22:29:52
Naja die Werte sind nicht wirklich gut!

Die Treiber für die 800Pro/Xt sind viel ausgereifter als die vom NV40... glaube ich!
Wurde aufjedenfall mal gesagt...

Für mich sieht es eher wie ein gleichstand aus!

deekey777
2004-05-03, 22:30:11
Hm, nach 18-19.00 gehe ich nie auf THG.... Mist!!!

LovesuckZ
2004-05-03, 22:30:55
ist Farcry Outdoor eigentlich CPU limitierend?
NV38 und NV40 Minimum gleichviel...
Nunja, war in anbetracht, dass es für den NV40 immernoch kein vernünftiges Farcry "Profil" mit dem 60.72 garnichtmal schlecht.
Die Werte des 61.11 sind dagegen "Murks", da es zu viele Bugs in zusammenhang mit farcry gibt.

mike49
2004-05-03, 22:31:16
Na also, geht doch :D

Und jetzt wissen wir auch, warum nV eilig den 61.11 nachgeschoben hat.

LovesuckZ
2004-05-03, 22:32:23
Original geschrieben von mike49
Und jetzt wissen wir auch, warum nV eilig den 61.11 nachgeschoben hat.

Du meinst, die Bugs fallen dann nicht auf? ;D

/edit: hat der liebe Mister q; kein Indoor Bildchen? :)

Aquaschaf
2004-05-03, 22:32:42
Farcry Benches taugen ja leider noch nicht für den Vergleich mit dem NV40, mal abwarten wie es in den restlichen Spielen ausschaut :)

mike49
2004-05-03, 22:32:55
Original geschrieben von LovesuckZ
Die Werte des 61.11 sind dagegen "Murks", da es zu viele Bugs in zusammenhang mit farcry gibt.
Hast du denn den 61.11 schon mit einer 6800 getestet, oder wie bist du sonst zu dieser Erkenntnis gelangt?

[dzp]Viper
2004-05-03, 22:34:22
Quarsar - wir wollen mehr pics :D

LovesuckZ
2004-05-03, 22:34:23
Original geschrieben von mike49
Hast du denn den 61.11 schon mit einer 6800 getestet, oder wie bist du sonst zu dieser Erkenntnis gelangt?

Ante P hat es geschrieben, er hat anscheinend schon die "Bugliste".

/edit:
Known 61.11 driver bugs:

117597 [TWIMTBP]NV40,WinXP: Corruption when trying to take a screenshot with AA enabeld in Far Cry.

117561 [TWIMTBP]NV38/40,WinXP: Corruption of some weapons in Far Cry.

117474 [TWIMTBP]NV40,WinXP: Fog broke in Far Cry.

113476 NV38/40-WinXP: Lighting/shadow problem in FarCry.

117575 [TWIMTBP] NV40/38: Banding visible from wall in FarCry.

Ante P

kiss
2004-05-03, 22:34:30
Naja wenn ich mir schon den unterschied des r420 Pro und Xt anschaue!

420Pro 12Pipes
420Xt 16Pipes

wirklich kaum ein unterschied, aufjedenfall bei FarCry.
Egal...ich will ordentliche Benches sehen!

Demirug
2004-05-03, 22:37:14
Der Bench hängt eindeutig an der CPU sonst dürfte die Min-FPS bei der Pro und XT nicht gleich sein.

dildo4u
2004-05-03, 22:38:48
Original geschrieben von Demirug
Der Bench hängt eindeutig an der CPU sonst dürfte die Min-FPS bei der Pro und XT nicht gleich sein. naj bei 1024*768 ohne aa und ansio auch kein wunder hat eigentlich 0 aussagekraft der bench

LovesuckZ
2004-05-03, 22:38:57
Original geschrieben von Demirug
Der Bench hängt eindeutig an der CPU sonst dürfte die Min-FPS bei der Pro und XT nicht gleich sein.

Hm, das wiederum bringt einen auf die Vermutung, dass zwischen r420 und r360 keine großen Unterschiede herrschen, wenn ATi die CPU Last so gut im Griff hat.

Quasar
2004-05-03, 22:40:33
.

TheCounter
2004-05-03, 22:41:46
Quasar, wie wärs mal mit AA/AF Benches? :)

Bitte :)

dildo4u
2004-05-03, 22:44:32
Original geschrieben von Quasar
. BREED? hallo gehts noch THG @ its best

Quasar
2004-05-03, 22:44:39
Mehr hab ich nicht mehr im Cache, sorry. Als ich versuchte, das Review zu laden, waren die offenbar gerade wieder dabei, es runterzunehmen.

Stromverbrauch dürfte nicht nur mich interessieren:
Das Bild konnte ich leider nicht sehen, aber im Text stand was davon, daß die X800 _PRO_ leicht unterhalb der R9800XT war. Die Frage bleibt, welchen RAM die XT hat? DDR oder DDR II?

(del676)
2004-05-03, 22:45:46
andere benches hast nicht gesehn?

Godmode
2004-05-03, 22:49:44
wie wärs machen wir durch? gibts sicher noch einige interessante sachen heute :)

[dzp]Viper
2004-05-03, 22:50:27
Ich muss morgen arbeiten... kann ich nicht machen :(

Demirug
2004-05-03, 22:51:46
Original geschrieben von Quasar
Mehr hab ich nicht mehr im Cache, sorry. Als ich versuchte, das Review zu laden, waren die offenbar gerade wieder dabei, es runterzunehmen.

Stromverbrauch dürfte nicht nur mich interessieren:
Das Bild konnte ich leider nicht sehen, aber im Text stand was davon, daß die X800 _PRO_ leicht unterhalb der R9800XT war. Die Frage bleibt, welchen RAM die XT hat? DDR oder DDR II?

Jemand bei b3d meinte es wäre der gleiche Speicher wie auf der 6800U.

Godmode
2004-05-03, 22:53:17
Original geschrieben von [dzp]Viper
Ich muss morgen arbeiten... kann ich nicht machen :(

Ich kann auch fast nicht hab morgen BWL Prüfung :(

Quasar
2004-05-03, 22:56:31
Original geschrieben von Demirug
Jemand bei b3d meinte es wäre der gleiche Speicher wie auf der 6800U.

Ähm, sorry, ich meinte die alte 9800XT. Wenn die DDR-II hat und die X800 GDDR3 und ein bißchen drunter bliebe, wäre ich nicht so beeindruckt.
Wenn beide DDR-RAM hätten, wäre das in der Tat nicht übel.

Demirug
2004-05-03, 22:59:21
BREED hängt wohl genauso fast ständig an der CPU. Interesant finde ich allerdings das der nVidia Treiber hier scheinbar etwas sparsammer mit der Resource CPU umgeht als der ATI Treiber.

(del676)
2004-05-03, 23:01:00
Original geschrieben von Demirug
BREED hängt wohl genauso fast ständig an der CPU. Interesant finde ich allerdings das der nVidia Treiber hier scheinbar etwas sparsammer mit der Resource CPU umgeht als der ATI Treiber.

war das imho ned schon immer so?

Mr. Lolman
2004-05-03, 23:03:03
Original geschrieben von Ulukay
war das imho ned schon immer so?

Bei den FXen eigentlich nicht mehr...

Cartman21
2004-05-03, 23:23:34
die bilder sind echt, der test ist auch echt.
man kann jedesmal wenn ein grosser launch ansteht bei thg den artikel vorher lesen, weil die ne scheiss url darstellung haben. man tippe einfach das datum des betreffenden tages in die url der entsprechenden rubrik. heute: h**p://www.de.tomshardware.com/graphic/20040504/index.html
schon kann man den test lesen, der jetzt aber wieder offline ist.

zusammenfassung:
die x800xt ROCKT! die x800pro kämpft gg die geforce 6800, verliert auch in einigen disziplinen. x800xt ist unangefochtener spitzenreiter, dass sage sogar ich als nvidia user :p
als treiber kam catalyst 4.4 und der heute erscheinen deto 61.11 / 60.72 zum einsatz.

(del676)
2004-05-03, 23:28:17
Original geschrieben von Cartman21
die bilder sind echt, der test ist auch echt.
man kann jedesmal wenn ein grosser launch ansteht bei thg den artikel vorher lesen, weil die ne scheiss url darstellung haben. man tippe einfach das datum des betreffenden tages in die url der entsprechenden rubrik. heute: h**p://www.de.tomshardware.com/graphic/20040504/index.html
schon kann man den test lesen, der jetzt aber wieder offline ist.

zusammenfassung:
die x800xt ROCKT! die x800pro kämpft gg die geforce 6800, verliert auch in einigen disziplinen. x800xt ist unangefochtener spitzenreiter, dass sage sogar ich als nvidia user :p
als treiber kam catalyst 4.4 und der heute erscheinen deto 61.11 / 60.72 zum einsatz.

wenn du das ganze review gelesen hast könntest ja mal deinen Cache posten :eyes:

Godmode
2004-05-03, 23:32:10
Original geschrieben von Cartman21
die bilder sind echt, der test ist auch echt.
man kann jedesmal wenn ein grosser launch ansteht bei thg den artikel vorher lesen, weil die ne scheiss url darstellung haben. man tippe einfach das datum des betreffenden tages in die url der entsprechenden rubrik. heute: h**p://www.de.tomshardware.com/graphic/20040504/index.html
schon kann man den test lesen, der jetzt aber wieder offline ist.

zusammenfassung:
die x800xt ROCKT! die x800pro kämpft gg die geforce 6800, verliert auch in einigen disziplinen. x800xt ist unangefochtener spitzenreiter, dass sage sogar ich als nvidia user :p
als treiber kam catalyst 4.4 und der heute erscheinen deto 61.11 / 60.72 zum einsatz.

Die Pro jetzt gegen die Ultra oder gegen die Non Ultra?

Quasar
2004-05-03, 23:33:00
Oh, äh, schade eigentlich, daß THG nicht erwähnte, ob er bei der GF die trilineare Filterung aktivierte und ob bei der X800 die Bi-AF Optimierung auf den hinteren Texturstufen noch aktiv ist.

Wenn man aber mal so recht überlegt... dann ist sie noch drin.
Bin gayspannt auf Leos Test, der sie hoffentlich gleichmäßig fair behandelt.

Quasar
2004-05-03, 23:35:14
Original geschrieben von bans3i
Die Pro jetzt gegen die Ultra oder gegen die Non Ultra?

Die Pro gegen die Ultra, wobei man aber sagen muss, daß a) THG auch einige Test nur mit AF durchgeführt hat (s.oben... :|) und b) die Pro doch zumeist hintendran ist.

dildo4u
2004-05-03, 23:37:37
Radeon X800 Platinum : 525 MHz core clock, 1120 MHz GDDR3, 16 pixel pipelines, US$499
Radeon X800 Pro : 475 MHz core clock, 900 MHz GDDR, 12 pixel pipelines, US$299


http://www.vr-zone.com/?i=753&s=1

Wenn diese preise stimmen dann :-)

TheCounter
2004-05-03, 23:38:18
http://www.hx3.de/ext/farcry/image024.gif
http://www.hx3.de/ext/farcry/image033.gif
http://www.hx3.de/ext/farcry/image034.gif
http://www.hx3.de/ext/farcry/image035.gif

Fadl
2004-05-03, 23:38:49
Stand etwas über die Taktung der Chips geschrieben?
Überrascht mich etwas das die PRO so stark ist mit 12(wirklich 12?) Pipes. Und das 16 Pipes wohl nicht sooo viel Mehrleistung bringen.
Fragt sich dann eigentlich nur noch was die PRO kosten soll. Sollte sie deutlich günstiger als die 6800 Ultra sein aber dabei nur unwesentlich langsamer dann wäre es wohl ein guter Kauf.

Quasar
2004-05-03, 23:39:08
Original geschrieben von dildo4u
Radeon X800 Platinum : 525 MHz core clock, 1120 MHz GDDR3, 16 pixel pipelines, US$499
Radeon X800 Pro : 475 MHz core clock, 900 MHz GDDR, 12 pixel pipelines, US$299


http://www.vr-zone.com/?i=753&s=1

Wenn diese preise stimmen dann :-)

Einer stimmt, der andere nicht. Beide ohne Steuer und Europa-Zuschlag. X-D

deekey777
2004-05-03, 23:39:26
Übrigens heißt das X2: The Threat

Edit: Was ist eingentlich mit diesem gelben Stecker auf der X800XT?

Fadl
2004-05-03, 23:42:38
Original geschrieben von Quasar
Einer stimmt, der andere nicht. Beide ohne Steuer und Europa-Zuschlag. X-D

Lass mich raten: Platinum stimmt und die Pro bei 399$ ?

TheCounter
2004-05-03, 23:43:19
Original geschrieben von deekey777
Übrigens heißt das X2: The Threat

Für die Dummheit von THG kann ich nix ;D

Die Bildchen sind jedenfalls echt...

Demirug
2004-05-03, 23:44:34
Original geschrieben von Fadl
Stand etwas über die Taktung der Chips geschrieben?
Überrascht mich etwas das die PRO so stark ist mit 12(wirklich 12?) Pipes. Und das 16 Pipes wohl nicht sooo viel Mehrleistung bringen.
Fragt sich dann eigentlich nur noch was die PRO kosten soll. Sollte sie deutlich günstiger als die 6800 Ultra sein aber dabei nur unwesentlich langsamer dann wäre es wohl ein guter Kauf.

Bei den Benchs ohne AA/AF macht oft die CPU einfach nicht mit. Die limitiert dann beide Karte gleich.

Das zweite Problem der XT dürfte die Bandbreite sein.

deekey777
2004-05-03, 23:47:10
Original geschrieben von TheCounter
Für die Dummheit von THG kann ich nix ;D

Die Bildchen sind jedenfalls echt...

Wieso du? Dich meinte ich doch gar nicht und wollte dir auch nicht unterstellen, dass die Bilder gefaked sind.

FriedeFreudeEierkuchen??? :love1:

Börk
2004-05-03, 23:52:55
Nach den ersten Test siehts ja gar net mal schlecht aus und die x800Pro scheint wirklich das beste Preisleistungsverhältnis zu haben, falls die 299€ stimmen. Aber auch für 349-399€ wäre sie sicherlich nicht übel, da sie schon sehr nah an den "großen" Kerlen dran ist.
Die Pro wird wohl die eigentlich neue High End Karte von ATI, die XT dürfte ja bekannterweise recht rar und teuer werden, ähnlich wie die Ultra...

Gruß,
Börk

Geoman
2004-05-04, 00:01:57
Wurde dort die neue Ultra mit 450 Mhz Chiptakt getestet? http://www.pcwelt.de/tests/hardware-tests/grafikkarte/39764/

[dzp]Viper
2004-05-04, 00:06:45
Original geschrieben von Geoman
Wurde dort die neue Ultra mit 450 Mhz Chiptakt getestet? http://www.pcwelt.de/tests/hardware-tests/grafikkarte/39764/

jup... aber die ergebnisse sind "etwas" unübersichtlich X-D

Cartman21
2004-05-04, 00:17:12
alle bilder und benches gibt es jetzt im computerbase forum
http://www.computerbase.de/forum/showthread.php?t=70949&page=2

deekey777
2004-05-04, 00:18:52
Original geschrieben von Cartman21
alle bilder und benches gibt es jetzt im computerbase forum
http://www.computerbase.de/forum/showthread.php?t=70949&page=2

Ach, der Counter...

:D :D :D

BodyLove
2004-05-04, 00:22:51
http://www.hx3.de/ext/farcry/ATIBilder/image061.gif

Einige Benchmarkergebnisse bringen mich zum Staunen. Andere nicht. Ist anscheinend ein offener Schlagabtausch.

Pasta Reims
2004-05-04, 00:24:38
Aber wo sind die Farcry Benches bei 1280x1024 oder 1600x1200? 1024x768 spielt doch keiner mehr

(del676)
2004-05-04, 00:24:39
uiuiuiui

http://www.hx3.de/ext/farcry/ATIBilder/aniso-2.jpg

schaut mal links oben - sieht aus als wär das r420 AF schöner als das der nv40

dildo4u
2004-05-04, 00:25:16
http://www.hx3.de/ext/farcry/ATIBilder/image015.gif

[dzp]Viper
2004-05-04, 00:26:01
so - jetzt alle bilder zum angucken

http://www.hx3.de/ext/farcry/ATIBilder/aniso-1.jpg
http://www.hx3.de/ext/farcry/ATIBilder/aniso-2.jpg
http://www.hx3.de/ext/farcry/ATIBilder/architecture.gif
http://www.hx3.de/ext/farcry/ATIBilder/atitempaatool.jpg
http://www.hx3.de/ext/farcry/ATIBilder/bt-6800-off.jpg
http://www.hx3.de/ext/farcry/ATIBilder/bt-6800-on.jpg
http://www.hx3.de/ext/farcry/ATIBilder/bt-diff-6800-off.jpg
http://www.hx3.de/ext/farcry/ATIBilder/bt-diff-6800-on.jpg

(del676)
2004-05-04, 00:26:01
Original geschrieben von dildo4u
http://www.hx3.de/ext/farcry/ATIBilder/image015.gif

wollt ich auch grad posten

:O

[dzp]Viper
2004-05-04, 00:26:37
http://www.hx3.de/ext/farcry/ATIBilder/bt-diff-x800.jpg
http://www.hx3.de/ext/farcry/ATIBilder/bt-refrast.jpg
http://www.hx3.de/ext/farcry/ATIBilder/bt-x800.jpg
http://www.hx3.de/ext/farcry/ATIBilder/card-x800pro.jpg
http://www.hx3.de/ext/farcry/ATIBilder/card-x800xt.jpg
http://www.hx3.de/ext/farcry/ATIBilder/card01.jpg
http://www.hx3.de/ext/farcry/ATIBilder/card02.jpg
http://www.hx3.de/ext/farcry/ATIBilder/card04.jpg
http://www.hx3.de/ext/farcry/ATIBilder/card05.jpg

[dzp]Viper
2004-05-04, 00:26:53
http://www.hx3.de/ext/farcry/ATIBilder/card06.jpg
http://www.hx3.de/ext/farcry/ATIBilder/chip01.jpg
http://www.hx3.de/ext/farcry/ATIBilder/ct-6800-off.jpg
http://www.hx3.de/ext/farcry/ATIBilder/ct-6800-on.jpg
http://www.hx3.de/ext/farcry/ATIBilder/ct-diff-6800-off.jpg
http://www.hx3.de/ext/farcry/ATIBilder/ct-diff-6800-on.jpg
http://www.hx3.de/ext/farcry/ATIBilder/ct-diff-x800.jpg
http://www.hx3.de/ext/farcry/ATIBilder/ct-refrast.jpg
http://www.hx3.de/ext/farcry/ATIBilder/ct-x800.jpg
http://www.hx3.de/ext/farcry/ATIBilder/fsaa-1.jpg

[dzp]Viper
2004-05-04, 00:27:05
http://www.hx3.de/ext/farcry/ATIBilder/fsaa-2.jpg
http://www.hx3.de/ext/farcry/ATIBilder/fsaa-pattern.jpg
http://www.hx3.de/ext/farcry/ATIBilder/fsaa-sample.jpg
http://www.hx3.de/ext/farcry/ATIBilder/image004.gif
http://www.hx3.de/ext/farcry/ATIBilder/image005.gif
http://www.hx3.de/ext/farcry/ATIBilder/image006.gif
http://www.hx3.de/ext/farcry/ATIBilder/image007.gif
http://www.hx3.de/ext/farcry/ATIBilder/image008.gif
http://www.hx3.de/ext/farcry/ATIBilder/image009.gif
http://www.hx3.de/ext/farcry/ATIBilder/image010.gif

[dzp]Viper
2004-05-04, 00:27:23
http://www.hx3.de/ext/farcry/ATIBilder/image011.gif
http://www.hx3.de/ext/farcry/ATIBilder/image012.gif
http://www.hx3.de/ext/farcry/ATIBilder/image013.gif
http://www.hx3.de/ext/farcry/ATIBilder/image014.gif
http://www.hx3.de/ext/farcry/ATIBilder/image015.gif
http://www.hx3.de/ext/farcry/ATIBilder/image016.gif
http://www.hx3.de/ext/farcry/ATIBilder/image017.gif
http://www.hx3.de/ext/farcry/ATIBilder/image018.gif

[dzp]Viper
2004-05-04, 00:27:35
http://www.hx3.de/ext/farcry/ATIBilder/image019.gif
http://www.hx3.de/ext/farcry/ATIBilder/image020.gif
http://www.hx3.de/ext/farcry/ATIBilder/image021.gif
http://www.hx3.de/ext/farcry/ATIBilder/image022.gif
http://www.hx3.de/ext/farcry/ATIBilder/image023.gif
http://www.hx3.de/ext/farcry/ATIBilder/image024.gif
http://www.hx3.de/ext/farcry/ATIBilder/image025.gif
http://www.hx3.de/ext/farcry/ATIBilder/image026.gif
http://www.hx3.de/ext/farcry/ATIBilder/image027.gif
http://www.hx3.de/ext/farcry/ATIBilder/image028.gif

[dzp]Viper
2004-05-04, 00:27:49
http://www.hx3.de/ext/farcry/ATIBilder/image029.gif
http://www.hx3.de/ext/farcry/ATIBilder/image030.gif
http://www.hx3.de/ext/farcry/ATIBilder/image031.gif
http://www.hx3.de/ext/farcry/ATIBilder/image032.gif
http://www.hx3.de/ext/farcry/ATIBilder/image033.gif
http://www.hx3.de/ext/farcry/ATIBilder/image034.gif
http://www.hx3.de/ext/farcry/ATIBilder/image035.gif
http://www.hx3.de/ext/farcry/ATIBilder/image036.gif
http://www.hx3.de/ext/farcry/ATIBilder/image037.gif
http://www.hx3.de/ext/farcry/ATIBilder/image038.gif

[dzp]Viper
2004-05-04, 00:28:08
http://www.hx3.de/ext/farcry/ATIBilder/image039.gif
http://www.hx3.de/ext/farcry/ATIBilder/image040.gif
http://www.hx3.de/ext/farcry/ATIBilder/image041.gif
http://www.hx3.de/ext/farcry/ATIBilder/image042.gif
http://www.hx3.de/ext/farcry/ATIBilder/image043.gif
http://www.hx3.de/ext/farcry/ATIBilder/image044.gif
http://www.hx3.de/ext/farcry/ATIBilder/image045.gif
http://www.hx3.de/ext/farcry/ATIBilder/image046.gif
http://www.hx3.de/ext/farcry/ATIBilder/image047.gif
http://www.hx3.de/ext/farcry/ATIBilder/image048.gif

Abraxaς
2004-05-04, 00:28:15
die karten scheinen sich wirklich nicht allzuviel zu nehmen.Dann müssen halt noch gute preise her um den kunden vom produkt zu überzeugen:D

[dzp]Viper
2004-05-04, 00:28:19
http://www.hx3.de/ext/farcry/ATIBilder/image049.gif
http://www.hx3.de/ext/farcry/ATIBilder/image050.gif
http://www.hx3.de/ext/farcry/ATIBilder/image051.gif
http://www.hx3.de/ext/farcry/ATIBilder/image052.gif
http://www.hx3.de/ext/farcry/ATIBilder/image053.gif
http://www.hx3.de/ext/farcry/ATIBilder/image054.gif
http://www.hx3.de/ext/farcry/ATIBilder/image055.gif
http://www.hx3.de/ext/farcry/ATIBilder/image056.gif
http://www.hx3.de/ext/farcry/ATIBilder/image057.gif

[dzp]Viper
2004-05-04, 00:28:28
http://www.hx3.de/ext/farcry/ATIBilder/image058.gif
http://www.hx3.de/ext/farcry/ATIBilder/image059.gif
http://www.hx3.de/ext/farcry/ATIBilder/image060.gif
http://www.hx3.de/ext/farcry/ATIBilder/image061.gif
http://www.hx3.de/ext/farcry/ATIBilder/image062.gif
http://www.hx3.de/ext/farcry/ATIBilder/memory-interface.gif

[dzp]Viper
2004-05-04, 00:28:33
http://www.hx3.de/ext/farcry/ATIBilder/memory.jpg
http://www.hx3.de/ext/farcry/ATIBilder/pixelpipe1.gif
http://www.hx3.de/ext/farcry/ATIBilder/pixelpipe2.gif
http://www.hx3.de/ext/farcry/ATIBilder/pixelpipe3.gif
http://www.hx3.de/ext/farcry/ATIBilder/tempral-aa.gif
http://www.hx3.de/ext/farcry/ATIBilder/Thumbs.db
http://www.hx3.de/ext/farcry/ATIBilder/vertex-engine.gif

[dzp]Viper
2004-05-04, 00:29:13
Das wars X-D

tRpii
2004-05-04, 00:29:42
die hälfte der THG Benchmarks sind irgendwie welche von COD wo die Nvidia-Karten bekanntlich besser abschneiden und dort wo die ATi klar dominiert sind nur 2 maximal 4 zu sehen.. naja..

aber wenn die anderen reviews ein ähnliches bild zeigen dann werd ich definitiv bei ATi bleiben..

deekey777
2004-05-04, 00:31:01
Da wird THG :kotz: :kotz: :kotz: ohne Ende!!!

Raff
2004-05-04, 00:33:02
ATi kann also wahrhaftig mehr als gut dagegen halten, Respekt. :up: Ich hatte ehrlich gesagt nicht mit einer derart guten Leistung gerechnet.

MfG,
Raff

BodyLove
2004-05-04, 00:33:25
da fehlt der "wichtigste" Benchmark, undzwar der 3dmark. Weiss was mit dem ist? Sind wohl nicht alle Benches online gewesen. Restspannung bleibt also noch.;D

dildo4u
2004-05-04, 00:35:59
naja man kann ja fast nach preis kaufen oder ob grün oder rot besser in den rechner passen farblich LOL

deekey777
2004-05-04, 00:37:54
Original geschrieben von BodyLove
da fehlt der "wichtigste" Benchmark, undzwar der 3dmark. Weiss was mit dem ist? Sind wohl nicht alle Benches online gewesen. Restspannung bleibt also noch.;D

THG testet nicht mehr mit dem 3D2003(bis auf die AF Tests).

Wo ist der HL2 Benchmark???

moelli
2004-05-04, 00:38:34
Für was ist eigentlich die gelbe Steckerleiste neben dem Stromanschluss?

dildo4u
2004-05-04, 00:38:45
OT:1200 leute auf den Board*g*

deekey777
2004-05-04, 00:40:11
Original geschrieben von moelli
Für was ist eigentlich die gelbe Steckerleiste neben dem Stromanschluss?

Sag ich nicht...

(Für den Anschluss zB eines Frontpanels mit Videoein- und -ausgängen).

BodyLove
2004-05-04, 00:41:50
Original geschrieben von deekey777
THG testet nicht mehr mit dem 3D2003(bis auf die AF Tests).


echt jetzt? hätte ich ehrlich gesagt, nicht gedacht.

Viel komischer ist imho, dass man für die XT und die Pro diesselbe Kühllösung nutzt. Ausserdem liegen die Speicher tatsächlich blank, wie auf den Pre-Fotos schon zu sehen war. Inq war es doch, oder?

http://www.hx3.de/ext/farcry/ATIBilder/card-x800pro.jpg
http://www.hx3.de/ext/farcry/ATIBilder/card-x800xt.jpg

deekey777
2004-05-04, 00:43:07
@BodyLove:
OT: Hast du bei CB Gewinnspiel mitgemacht???

moelli
2004-05-04, 00:44:07
Original geschrieben von deekey777
Sag ich nicht...

(Für den Anschluss zB eines Frontpanels mit Videoein- und -ausgängen).
Ok, danke!

BodyLove
2004-05-04, 00:44:25
@deekey

ja, wieso? Hab nämlich nichts gewonnen.

TheWarrior
2004-05-04, 00:47:05
weiss man schon, ob die bohrungen mit denen der 9800 überstimmen?

deekey777
2004-05-04, 00:47:43
Original geschrieben von BodyLove
@deekey

ja, wieso? Hab nämlich nichts gewonnen.


Edit: Lösch mich!!!!

Ailuros
2004-05-04, 00:47:52
Fragt sich immer noch jemand warum ich mich fragte ob der Inquirer in einem der letzten newsblurbs die X800PRO mit der XT verwechselt hat?

Kakarot
2004-05-04, 00:47:54
Original geschrieben von deekey777
@BodyLove:
OT: Hast du bei CB Gewinnspiel mitgemacht???
kann auch per PM besprochen werden, wie auch alle anderen OT-Diskussionen.

AlfredENeumann
2004-05-04, 00:50:14
Original geschrieben von BodyLove
echt jetzt? hätte ich ehrlich gesagt, nicht gedacht.

Viel komischer ist imho, dass man für die XT und die Pro diesselbe Kühllösung nutzt. Ausserdem liegen die Speicher tatsächlich blank, wie auf den Pre-Fotos schon zu sehen war. Inq war es doch, oder?

http://www.hx3.de/ext/farcry/ATIBilder/card-x800pro.jpg
http://www.hx3.de/ext/farcry/ATIBilder/card-x800xt.jpg


Warum denn nicht? Ist doch der gleiche Chip.
Und wenn man RAM innerhlab seiner Spezifikation benutzt muß man es nicht Kühlen.

BodyLove
2004-05-04, 00:54:11
Original geschrieben von AlfredENeumann
Warum denn nicht? Ist doch der gleiche Chip.
Und wenn man RAM innerhlab seiner Spezifikation benutzt muß man es nicht Kühlen.

ging man denn davon nicht aus, dass ATI das letzte aus dem R420 rausholt? Das wiederspricht sich doch imho, wenn man diese Kühllösung vor Augen hält.

[dzp]Viper
2004-05-04, 00:55:03
Wer weiss, wie hoch man den Core vom R420 mit dem Neuen VGA Silencer noch so takten kann X-D

*schon wieder an unanständige sachen denk*

deekey777
2004-05-04, 00:57:37
Der Kühler scheint um einiges kleiner zu seien als der der 9800XT:
http://www.ati.com/designpartners/media/images/R9800xt_board.jpg

BodyLove
2004-05-04, 01:00:44
Original geschrieben von deekey777
Der Kühler scheint um einiges kleiner zu seien als der der 9800XT:
http://www.ati.com/designpartners/media/images/R9800xt_board.jpg

Der RAM wird ja anscheinend nicht mitgekühlt. Das spart imho viel Kühlfläche.

Bitpower
2004-05-04, 01:01:57
Hier nochmal die Übersicht :

http://www.computerbase.de/forum/showpost.php?p=646488&postcount=28

TheCounter
2004-05-04, 01:20:25
Ich hab mir die AF bildchen mal angeschaut und was komisches festgestellt.

Und zwar ist im selben Bild an einer stelle mal das AF von Nvidia besser und an der anderen das AF von ATI... wie ist das möglich?

[WEISSBIER]Moff
2004-05-04, 01:44:44
Mir ist aufgefallen wie ATI bei UT2004 mit AF punkten kann. Bei 4xFSAA kann die Ultra noch mit 97 zu 90 fps knapp gewinnen, aber bei 8x AF zieht die XT mit 102 zu 75 fps davon (beides in 1600er Auflösung).
Könnte es sein, daß hier vielleicht wieder nur die 1. Texturenstufe Trilinear gefiltert wird? (Nein, ich bin kein Fanboy. Mir ist nur diese Besonderheit bei den UT2004 Benches aufgefallen)

dfhnrgtjhn
2004-05-04, 03:49:28
Original geschrieben von [dzp]Viper
http://www.hx3.de/ext/farcry/ATIBilder/image058.gif
http://www.hx3.de/ext/farcry/ATIBilder/image059.gif
http://www.hx3.de/ext/farcry/ATIBilder/image060.gif
http://www.hx3.de/ext/farcry/ATIBilder/image061.gif
http://www.hx3.de/ext/farcry/ATIBilder/image062.gif
http://www.hx3.de/ext/farcry/ATIBilder/memory-interface.gif

Verdammt die XT ist um einiges schneller als die Pro,die XT wird aber so teuer werden :(

ATI-FanBoi
2004-05-04, 03:52:28
http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010001.JPG

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010002.JPG

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010029.JPG

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010020.JPG

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010021.JPG

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010022.JPG

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010018.JPG

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010017.JPG

SoGehtDas
2004-05-04, 03:53:59
http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010001.JPG

http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010002.JPG


http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010029.JPG


http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010020.JPG


http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010021.JPG


http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010022.JPG


http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010018.JPG


http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010017.JPG

CompuJoe
2004-05-04, 04:01:36
Auf jedenfall versperrt die ATI nicht den PCI under dem AGP-Port!

Dooozer
2004-05-04, 04:15:05
Jo,

Alle ATI 800 --> Singleslot
NV 6800U auf jeden Fall Dual_Slot

Nach den Benchies ist die 6800 Non-Ultra sowieso Tonne ...

LovesuckZ
2004-05-04, 06:57:38
Original geschrieben von Dooozer
NV 6800U auf jeden Fall Dual_Slot

Falsch.

Nach den Benchies ist die 6800 Non-Ultra sowieso Tonne ...

Kostet auch nur 299$...

Dieser Farcry Shot ist interessant:

http://www.hx3.de/ext/farcry/ATIBilder/image062.gif

seahawk
2004-05-04, 07:02:01
Wann kommt eigentlich der R423 in für PCI-EX ??

Ich will so eine Karte zum Herbst. :)

Radeonator
2004-05-04, 07:19:53
Original geschrieben von Pasta Reims
Aber wo sind die Farcry Benches bei 1280x1024 oder 1600x1200? 1024x768 spielt doch keiner mehr

Sry, aber QUATSCH!

Die meisten Online Zocker spielen 1024x768, mancheiner ist sogar so pervers und spielt in 800x600(Hallo liebe Q3 Gemeinde ;) )

Oki, offline lieber höher, online definitiv NEIEN!

Demirug
2004-05-04, 07:35:52
Original geschrieben von [WEISSBIER]Moff
Mir ist aufgefallen wie ATI bei UT2004 mit AF punkten kann. Bei 4xFSAA kann die Ultra noch mit 97 zu 90 fps knapp gewinnen, aber bei 8x AF zieht die XT mit 102 zu 75 fps davon (beides in 1600er Auflösung).
Könnte es sein, daß hier vielleicht wieder nur die 1. Texturenstufe Trilinear gefiltert wird? (Nein, ich bin kein Fanboy. Mir ist nur diese Besonderheit bei den UT2004 Benches aufgefallen)

Das die XT da schneller ist sollte eigentlich nicht wunder. Immerhin hat sie 30% mehr Fillrate und UT mit AF liebt nun mal Fillrate. Das die Pro aber auch noch vorne liegt lässt aber durchaus vermuten da hier beide nicht gleich filtern oder bei der 6800U was anderes als die Fillrate limitiert.

drmaniac
2004-05-04, 07:59:24
neeeeeeeeeeiiinnnn

ich wollte eigentlich die neue ATI kaufen (hab jetzt die 9800xt drinn), aber ich benoetige zwei x DVI auf einer Karte :(

und bis jetzt sehen alle Karten von den ATIs aus wie alte analog / DVI :(

ist es denn so schwer fuer ati, wie nvidia 2x dvi zu vernauen und eben zwei adapterkabel beizulegen :(

damn, wenn sich nix aendert, werd ich zum nvidianer grrr

Quasar
2004-05-04, 08:00:20
Original geschrieben von CompuJoe
Auf jedenfall versperrt die ATI nicht den PCI under dem AGP-Port!

Mal schauen, wieviel "Single-Slot" wirklich wert ist. Bei der R9800p gab's bei mir leider ein paar Bildfehler, wenn man den ersten PCI nicht freiließ.

Xinor
2004-05-04, 08:00:42
Hi all,

Ich hoffe dass beide Karten gleichschnell sind, denn dann gibts einen Preiskampf :D In Moment, kann ich mir net son Ding leisten, zudem Laufen noch alle Games auf meiner RappelKiste :D Ich weiß ja net wie ihr es seht, aber ich würde mich über den Preiskampf freuen. Ich hab mir zwar noch net den Thread durchgelesen, aber wann kommen die Karten nach Europa?

drmaniac
2004-05-04, 08:01:03
Original geschrieben von Radeonator
Sry, aber QUATSCH!

Die meisten Online Zocker spielen 1024x768, mancheiner ist sogar so pervers und spielt in 800x600(Hallo liebe Q3 Gemeinde ;) )

Oki, offline lieber höher, online definitiv NEIEN!

noe, kein Quatsch. Ihc zocke nur noch 1600x1200 da das TFT nur diese native Aufloesung hat. Und da bin ich nicht alleine. TELLERRAND (druebergucken) ;)

Xinor
2004-05-04, 08:17:09
Aber echt :D Je höcher umso besser. Wenn ich könnte würde ich auch mit 2048 zocken. Es muss smoth aussehen ^^ Dann noch 6xAA rein und das Bild ist perfekt, wenn das überhaupt ein PC schafft.

Quasar
2004-05-04, 08:20:38
Schaut's euch mal das:

http://www.hx3.de/ext/farcry/ATIBilder/image024.gif

und das

http://www.hx3.de/ext/farcry/ATIBilder/image012.gif

genauer an. Und dazu nochmal das Optionspanel vom rTool mit Cat4.4.

Dann werdet ihr feststellen, daß man unter OpenGL keine AF-Optimierung auf den Stages 1-7 zur Verfügung hat.
CoD läuft unter OpenGL, UT2004 unter D3D...

Scheint so, als bräuchten wir wirklich Leos Review....

dildo4u
2004-05-04, 08:23:24
Original geschrieben von Quasar
Schaut's euch mal das:

http://www.hx3.de/ext/farcry/ATIBilder/image024.gif

und das

http://www.hx3.de/ext/farcry/ATIBilder/image012.gif

genauer an. Und dazu nochmal das Optionspanel vom rTool mit Cat4.4.

Dann werdet ihr feststellen, daß man unter OpenGL keine AF-Optimierung auf den Stages 1-7 zur Verfügung hat.
CoD läuft unter OpenGL, UT2004 unter D3D...

Scheint so, als bräuchten wir wirklich Leos Review.... seid wann sind das news nvidia karte warn schon immer stärker in opengl egal ob mit oder ohne aniso

Quasar
2004-05-04, 08:38:51
Original geschrieben von dildo4u
seid wann sind das news nvidia karte warn schon immer stärker in opengl egal ob mit oder ohne aniso

Ich empfehle erstmal einen Kaffee und dann bitte drüber nachdenken...
Vielleicht als Referenz mal beide Tests _ohne_ AF anschauen und die dort vorhandenen oder nicht vorhandenen Differenzen begucken. Dann kannst du sehen, ob man's am Treiber :eyes: festmachen kann oder nicht.

Vergiß' bitte nicht, wir reden hier nicht über 140 vs 142fps in niedriger Auflösung, sondern um 25-30% Leistungsunterschied.

Radeonator
2004-05-04, 08:57:46
Sieht doch nice aus! Wie immer D3D sehr gut, OGL naja...

Remis würde ich sagen und die Wrte der Pro und none Ultra gefallen mir auch gut. Sollte mit nem bissi Ocing einiges drin sein :)

[dzp]Viper
2004-05-04, 09:02:10
Wie sich dei x800pro übertakten läßt, wird sowieso sehr interessant...

Würde mich nicht wundern, wenn viele die XT taktraten schaffen, aber eben ein paar pipes deaktiviert sind...

Demirug
2004-05-04, 09:02:13
Original geschrieben von Radeonator
Sieht doch nice aus! Wie immer D3D sehr gut, OGL naja...

Remis würde ich sagen und die Wrte der Pro und none Ultra gefallen mir auch gut. Sollte mit nem bissi Ocing einiges drin sein :)

Welche "non Ultra"?

aths
2004-05-04, 09:02:27
Original geschrieben von TheCounter
Ich hab mir die AF bildchen mal angeschaut und was komisches festgestellt.

Und zwar ist im selben Bild an einer stelle mal das AF von Nvidia besser und an der anderen das AF von ATI... wie ist das möglich? In dem beide nicht exakt gleiche AF-Muster verwenden? Afaik sieht es aber höchstens auf Screenshots bei ATI besser aus. Nach dem was ich gesehen habe, ist das NV40-AF (ab 4x) dem R420-AF immer ein wenig überlegen.

Godmode
2004-05-04, 09:26:16
Original geschrieben von Quasar
Schaut's euch mal das:

http://www.hx3.de/ext/farcry/ATIBilder/image024.gif

und das

http://www.hx3.de/ext/farcry/ATIBilder/image012.gif

genauer an. Und dazu nochmal das Optionspanel vom rTool mit Cat4.4.

Dann werdet ihr feststellen, daß man unter OpenGL keine AF-Optimierung auf den Stages 1-7 zur Verfügung hat.
CoD läuft unter OpenGL, UT2004 unter D3D...

Scheint so, als bräuchten wir wirklich Leos Review....

Glaubst du weiterhin, das ATI ihre Stageoptimierung auf Texturschicht 1-7 verwenden? Wenn ja dann warte ich lieber auf Leos Review, denn die anderen machen dann wohl den selben fehler wie zur NV30 Zeit!

ow
2004-05-04, 09:29:54
.

Quasar
2004-05-04, 09:33:39
Original geschrieben von bans3i
Glaubst du weiterhin, das ATI ihre Stageoptimierung auf Texturschicht 1-7 verwenden?

So wie's momentan ausschaut: ja.

Godmode
2004-05-04, 09:34:18
Also Low-K kommt echt zum tragen! Das man ne 525 MHz @ 180 Mio Transen Karte mit nem Singleslot Kühler kühlen kann, ist schon beindruckend :)

Aber mir ist das eigentlich egal ob Dual oder Single, den ersten PCI Slot unter dem AGP sollte sowiso frei bleiben.

Naja MSI bringt die NV40 U auch sicher wieder mit Singleslot Design!

Godmode
2004-05-04, 09:35:43
Original geschrieben von Quasar
So wie's momentan ausschaut: ja.

Lässt man also den NV40@TRI gegen R420@Optimiert Tri antreten??

aths
2004-05-04, 09:36:06
Original geschrieben von ow
Willst du damit allen Ernstes behaupten, dass auf Karten die RAM-Kuehler nutzen der RAM ausserhalb seiner Spezifikation betrieben wird? Das hat er so nicht gesagt :)

Quasar
2004-05-04, 09:37:46
Original geschrieben von aths
Das hat er so nicht gesagt :)

Nee, viel schlimmer.
Er hat impliziert, daß ich den RAM-Kühler meiner GFFX5800U einfach so abmachen kann.... :eyes:

Quasar
2004-05-04, 09:38:34
Original geschrieben von bans3i
Lässt man also den NV40@TRI gegen R420@Optimiert Tri antreten??

Wie der nV40 antrat, weiß ich nicht, aber es hat den Anschein, daß die TS-Optimierung bei ATi durchaus noch angeschaltet war.

aths
2004-05-04, 09:51:40
Original geschrieben von Quasar
Wie der nV40 antrat, weiß ich nicht, aber es hat den Anschein, daß die TS-Optimierung bei ATi durchaus noch angeschaltet war. Wenn ihr ein paar Stunden Geduld hättet, könnte ich was dazu schreiben.

Tomcat70
2004-05-04, 09:52:52
Nvidia Geforce 6800 Ultra Extreme Edition auf PC-Welt


http://www.pcwelt.de/tests/hardware-tests/grafikkarte/39764/


grüsse

Exxtreme
2004-05-04, 09:52:52
Original geschrieben von bans3i
Lässt man also den NV40@TRI gegen R420@Optimiert Tri antreten??
Warte auf das 3DC-Review. =)

BodyLove
2004-05-04, 09:53:02
Original geschrieben von aths
Wenn ihr ein paar Stunden Geduld hättet, könnte ich was dazu schreiben.

Haben wir.:)

Wir warten auf dein Fazit.;)

St@N
2004-05-04, 10:20:59
aber ehrlich gesagt haben wir doch alle keine lust zu warten oder :D

es fällt schon schwer...und wenn der server zusammenbricht isses doppelt schwer heute nachmittag :(


wieviel seiten werden es denn sein darfst du das verraten?

beim nv40 hab ich mich gefreut das es so viele seiten waren :)

aths
2004-05-04, 10:25:33
Original geschrieben von St@N
wieviel seiten werden es denn sein darfst du das verraten?Hängt davon ab, was Leo draus macht. Von Leo selbst werden wohl deutlich mehr Seiten kommen, als von mir.

ow
2004-05-04, 10:25:56
.

Hamster
2004-05-04, 10:31:47
Original geschrieben von ow
Ich weiss.
Nur stellt sich mir die Frage, was er damit denn sagen wollte, denn falsch ist seine Aussage ohnehin.


nein. wenn in der spec drinsteht, dass man bis zum takt x und spannung y keine kühlung braucht, wo ist das dann falsch?

ow
2004-05-04, 10:38:58
.

tokugawa
2004-05-04, 10:40:49
Original geschrieben von Dooozer
Jo,

Alle ATI 800 --> Singleslot
NV 6800U auf jeden Fall Dual_Slot


Woher willst du das wissen? Nur weil die Referenz-Karte Dual-Slot war?

Ich warte noch immer auf das MSI-Design der 6800.

Zeckendreck
2004-05-04, 10:52:40
LOL, bei dem bild (http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010020.JPG) musst ich schon roffeln. Lustig auch, wie sich alle fürchten, dass mit tri- Optimierung gebencht wurde. Ob der neue FX Treiber jedoch noch weniger Shader in Farcry berechnet interessiert wohl keinem...


Warum kann man nicht mehr Gast heissen, oder Meister Gast?
Unreg geht auch nicht

ForbiddenSkill
2004-05-04, 11:07:29
Ich frage mich ob es überhaupt legal ist diese Bilder zu veröffnetlichen...

Erst ab Morgen darf man ja darüber berichten... ?(?(?(

MorBiuZ
2004-05-04, 11:09:40
Wenn 3dcenter ein Review verfasst - wann geht es online ? :asshole:

[dzp]Viper
2004-05-04, 11:11:32
Original geschrieben von MorBiuZ
Wenn 3dcenter ein Review verfasst - wann geht es online ? :asshole:

in ein paar stunden... auf alle fälle noch heute ;)

Roadkill@work
2004-05-04, 11:12:25
Original geschrieben von MorBiuZ
Wenn 3dcenter ein Review verfasst - wann geht es online ? :asshole:

Wenn du 3dcenter nicht mehr erreichen kannst, weißt du das es Online gegangen ist :D

Godmode
2004-05-04, 11:18:15
Original geschrieben von Zeckendreck
LOL, bei dem bild (http://www.meristation.com/img-filer/articulos/mayo2004/GeForce6800vsRadeonX800XTElcombatedelano/P1010020.JPG) musst ich schon roffeln. Lustig auch, wie sich alle fürchten, dass mit tri- Optimierung gebencht wurde. Ob der neue FX Treiber jedoch noch weniger Shader in Farcry berechnet interessiert wohl keinem...


Warum kann man nicht mehr Gast heissen, oder Meister Gast?
Unreg geht auch nicht

bist zu Zeckensack? oder ein Nachahmer?

x-dragon
2004-05-04, 11:26:26
Original geschrieben von ForbiddenSkill
Ich frage mich ob es überhaupt legal ist diese Bilder zu veröffnetlichen...

Erst ab Morgen darf man ja darüber berichten... ?(?(?( Die Leute die ein NDA unterschrieben habe dürfen dies nicht veröffentlichen, aber "Unfälle" gibts halt immer wieder .... Ansonsten könnte es denke ich nur Probleme bez. Copyrightbestimmungen der einzelnen Webseiten geben, aber da diese Seiten ja offiziell die Tests noch gar nicht online stellen durften ...

Dirk der Zeck
2004-05-04, 11:26:40
Original geschrieben von bans3i
bist zu Zeckensack? oder ein Nachahmer?
Weder noch...

körnchen
2004-05-04, 11:46:47
Testbericht bei chip.de ist online!
....Ich weiss, mit Vorsicht zu geniessen!!!

Steel
2004-05-04, 12:09:21
http://www.chip.de/ii/21775380_f7b6a623ae.gif

Wie haben die das geschafft? :|

x-dragon
2004-05-04, 12:11:11
Original geschrieben von Steel
http://www.chip.de/ii/21775380_f7b6a623ae.gif

Wie haben die das geschafft? :| Es wurden auf jeden Fall noch die "alten" 60er-Treiber verwendet beim 6800er-Benchmark, aber recht groß ist der Vorsprung trotzdem ...

BK-Morpheus
2004-05-04, 12:11:47
also ich bin sehr angetan von der X800Pro.

Wenn der Preis sich auf um die 300€ beläuft einfach geil, dann wird deie X800Pro wohl ein verkaufsrenner im Gegensatz zur 6800Ultra/nonultra.

Weil der Preis für die Leistung echt gut ist und ich finde auch sowas ganz nett:
Zitat Chip.de:
Leistungsaufnahme: 300-Watt-Netzteil genügt
Neben der Performance hat ATI besonders auf eine geringere Leistungsaufnahme der neuen X800-Reihe geachtet. GeForce-6800-Ultra-Grafikkarten benötigen zwei zusätzliche Stromanschlüsse, dabei ist ein Netzteil von mindestens 480 Watt Voraussetzung. Dagegen genügen den neuen Radeon-X800-Modellen ein Stromstecker und Netzteile, die eine Ausgangsleistung von 300 Watt bieten.

CHIP konnte dies mit dem performanteren Radeon-X800-XT-Modell in einem geschlossenen Testsystem und mit entsprechendem Netzteil verifizieren. Daneben fielen auch das Lüfterkonzept und die Lautstärke der Radeon-X800-XT äußerst positiv auf. Die Karte war als Ein-Slot-Lösung konzipiert und kann damit sogar in Barbone-PCs verbaut werden; zudem lag die gemessene Lautheit von 2,4 sone beziehungsweise 42,2 dB(A) im nicht hörbaren Bereich. Summa summarum: Drei große Pluspunkte für ATIs Radeon X800 XT Platinum Edition im Vergleich zum GeForce-6800-Ultra-Mode

Fadl
2004-05-04, 12:13:49
Original geschrieben von BK-Morpheus
also ich bin sehr angetan von der X800Pro.

Wenn der Preis sich auf um die 300€ beläuft einfach geil, dann wird deie X800Pro wohl ein verkaufsrenner im Gegensatz zur 6800Ultra/nonultra.

Weil der Preis für die Leistung echt gut ist und ich finde auch sowas ganz nett:

Die Karte kostet anfangs aber wohl 399$. Aber natürlich wird es sie irgenwann auch für um die 300€ zu kaufen geben ;)

BK-Morpheus
2004-05-04, 12:15:21
auch das ist nicht schlecht (wenngleich ich auch zugebe, dass dieses Feature eher als nicht so wichtig einzustufen ist):

Zitat Chip.de:
Interessant verlief der Test für die WMV-HD-Beschleunigung:
Im Gegensatz zur GeForce 6800 Ultra, deren integrierter Video-Prozessor noch keine WMV-HD-Beschleunigung unterstützt,
konnte das Radeon-Modell bereits seine Video-Shader für den kommenden Microsoft-Video-Codec einsetzen.

Zwar ist diese Funktion noch nicht offiziell in den Media-Player 9 integriert. Dass sie bereits arbeitet, zeigte sich aber beim Abspielen einer entsprechenden WMV-HD-Datei (1080i-Format).

Statt einer 3-GHZ-CPU lief das Testfile auch mit einer 2-GHz-CPU in 24 Bildern/s vollkommen flüssig ab.
Die CPU-Auslastung lag bei etwa 33 Prozent.
Noch besser verlief die Messung bei MPEG-2/4-Wiedergabe. Hier lag die CPU-Auslastung beim X800-XT-Modell bei etwa 13 Prozent für einen MPEG-2-Strom, respektive 17 Prozent für ein MPEG-4-Video (bei einer Transferrate von 4 MBit pro Sekunde).
Im Vergleich zum Radeon 9800 XT bedeutet das eine Verbesserung von 15 Prozent.

TheCounter
2004-05-04, 12:19:54
Original geschrieben von Steel
Wie haben die das geschafft? :|

Vielleicht durch 3Dc?

Hier führt ATI mit dem neuen „3Dc“-Algorithmus (3D compression) eine effiziente Kompressions-Technik für Texturen ein. Der Unterschied zu bisherigen Kompressionstechniken wie etwa Nvidias DXTC: Mit 3DC lassen sich hoch auflösende Texturen – ohne Qualitätseinbußen – genauer darstellen.

Schöner Nebeneffekt: Das Nadelöhr Speicherbandbreite, oft durch große Texturdaten proppenvoll, wird entlastet. Der Trick dabei: Über so genannte „normal maps“ wird die Oberfläche von 3D-Objekten genau definiert. Im nachfolgenden Schritt muss das Spiel die Bildinformation im Faktor 4:1 komprimieren. Danach werden die „geschrumpften“ Daten vom Radeon-X800-Chip hardwareseitig wieder entpackt und zum fertigen Objekt vermischt. Dass ATI dabei Nägel mit Köpfen macht, zeigt die große Akzeptanz von 3Dc: Kommende 3D-Knaller wie Half Life 2, Doom III oder Serious Sam II werden auf diesem Algorithmus aufsetzen. Daneben profitiert schon jetzt das Spiel Far Cry von 3Dc. Das obige Bild (aus ATIs „Ruby“-Demo) basiert ebenfalls auf dieser Kompressionstechnik.

Scheint wohl doch lossless zu sein :D

BK-Morpheus
2004-05-04, 12:20:17
Original geschrieben von Fadl
Die Karte kostet anfangs aber wohl 399$. Aber natürlich wird es sie irgenwann auch für um die 300€ zu kaufen geben ;)
ich dachte nur wegen dem post von Dildo4U:
Radeon X800 Platinum : 525 MHz core clock, 1120 MHz GDDR3, 16 pixel pipelines, US$499
Radeon X800 Pro : 475 MHz core clock, 900 MHz GDDR, 12 pixel pipelines, US$299

HOT
2004-05-04, 12:27:07
Original geschrieben von TheCounter
Vielleicht durch 3Dc?

[i]Hier führt ATI mit dem neuen „3Dc“-Algorithmus (3D compression) eine effiziente Kompressions-Technik für Texturen ein. Der Unterschied zu bisherigen Kompressionstechniken wie etwa Nvidias DXTC: Mit 3DC lassen sich hoch auflösende Texturen – ohne Qualitätseinbußen – genauer darstellen.

[...]

Ja ne is schon klar ;)
Der Erfinder war irgendwie ein anderer :D

TheCounter
2004-05-04, 12:36:31
Ich seh grad das die mitm Cat4.4 getestet haben, bin mal gespannt obs im Cat4.5 nicht noch nen Leistungsschub gibt ;D :D

betasilie
2004-05-04, 12:39:27
Richtig geil werden bestimmt Spiele mit 3Dc Unterstützung. *g*

DoomIII, HL2, etc.

tokugawa
2004-05-04, 12:48:24
Original geschrieben von BK-Morpheus
also ich bin sehr angetan von der X800Pro.

Wenn der Preis sich auf um die 300€ beläuft einfach geil, dann wird deie X800Pro wohl ein verkaufsrenner im Gegensatz zur 6800Ultra/nonultra.

Weil der Preis für die Leistung echt gut ist und ich finde auch sowas ganz nett:

Zitat Chip.de:
Leistungsaufnahme: 300-Watt-Netzteil genügt
Neben der Performance hat ATI besonders auf eine geringere Leistungsaufnahme der neuen X800-Reihe geachtet. GeForce-6800-Ultra-Grafikkarten benötigen zwei zusätzliche Stromanschlüsse, dabei ist ein Netzteil von mindestens 480 Watt Voraussetzung. Dagegen genügen den neuen Radeon-X800-Modellen ein Stromstecker und Netzteile, die eine Ausgangsleistung von 300 Watt bieten.

CHIP konnte dies mit dem performanteren Radeon-X800-XT-Modell in einem geschlossenen Testsystem und mit entsprechendem Netzteil verifizieren. Daneben fielen auch das Lüfterkonzept und die Lautstärke der Radeon-X800-XT äußerst positiv auf. Die Karte war als Ein-Slot-Lösung konzipiert und kann damit sogar in Barbone-PCs verbaut werden; zudem lag die gemessene Lautheit von 2,4 sone beziehungsweise 42,2 dB(A) im nicht hörbaren Bereich. Summa summarum: Drei große Pluspunkte für ATIs Radeon X800 XT Platinum Edition im Vergleich zum GeForce-6800-Ultra-Mode



Allerdings sind die 480W eine reine "Sicherheitsangabe", d.h. mit den 480W ist ein schlechtes billiges "worst case" 480W Netzteil gemeint.

Dass die 6800 Ultra auf einem guten 350W Netzteil auch rennt, ist ja Tatsache.

LovesuckZ
2004-05-04, 12:52:21
Original geschrieben von betareverse
Richtig geil werden bestimmt Spiele mit 3Dc Unterstützung. *g*
DoomIII, HL2, etc.

Warum waere 3Dc geil? Der User hat davon doch garnichts zur Zeit. Also dieses Feature ist sowas von nutzlos. Da haette Ai doch besser noch weiter den Speed erhöht, anstatt solchen Mist einzubaune...

DrFreaK666
2004-05-04, 12:53:36
Gibts keine Benches mit dem temporal AA???

edit: bzw.: funktioniert es richtig?

deekey777
2004-05-04, 12:54:18
Original geschrieben von LovesuckZ
Warum waere 3Dc geil? Der User hat davon doch garnichts zur Zeit. Also dieses Feature ist sowas von nutzlos. Da haette ATi doch besser noch weiter den Speed erhöht, anstatt solchen Mist einzubaune...


ATi ist ja nunmal eine Technologiebremse.

x-dragon
2004-05-04, 12:55:04
Original geschrieben von LovesuckZ
Warum waere 3Dc geil? Der User hat davon doch garnichts zur Zeit. Also dieses Feature ist sowas von nutzlos. Da haette Ai doch besser noch weiter den Speed erhöht, anstatt solchen Mist einzubaune... Ich kann zwar nicht beurteilen wann es wirklich wieviel bringt, aber so schlecht kann es nicht sein (und vor allem wohl einfach zu implementieren von den Enwicklern), denn sonst würden nicht alle Top-Spiele (inkl. FarCry) dies unterstützen, oder?

x-dragon
2004-05-04, 12:56:20
Original geschrieben von DrFreaK666
Gibts keine Benches mit dem temporal AA???

edit: bzw.: funktioniert es richtig? Ist ja noch nicht offiziell im akt. Cat. 4.4 freigeschaltet!

[dzp]Viper
2004-05-04, 12:56:23
Original geschrieben von LovesuckZ
Warum waere 3Dc geil? Der User hat davon doch garnichts zur Zeit. Also dieses Feature ist sowas von nutzlos. Da haette Ai doch besser noch weiter den Speed erhöht, anstatt solchen Mist einzubaune...

warum sollte es sinnlos sein??

Sag mir mal bitte warum :eyes:

Wenn du sowas behauptest, dann wäre eine begründung nicht schlecht...

momentan siehts nämlich so aus, als würde 3Dc in Spielen die es unterstützen (Farcry z.b.) ziemlich viel bringen...

tokugawa
2004-05-04, 12:57:09
Original geschrieben von x-dragon
Ich kann zwar nicht beurteilen wann es wirklich wieviel bringt, aber so schlecht kann es nicht sein (und vor allem wohl einfach zu implementieren von den Enwicklern), denn sonst würden nicht alle Top-Spiele (inkl. FarCry) dies unterstützen, oder?

SM 3.0 wär auch einfach zu implementieren (ich behaupte/spekuliere sogar mal: noch einfacher als 3Dc).

Aber anscheinend finden ATI-Jünger, dass SM 3.0 trotz einfacherer Nutzung trotzdem weniger Wert ist :D )

betasilie
2004-05-04, 12:57:25
Original geschrieben von LovesuckZ
Warum waere 3Dc geil? Der User hat davon doch garnichts zur Zeit. Also dieses Feature ist sowas von nutzlos. Da haette Ai doch besser noch weiter den Speed erhöht, anstatt solchen Mist einzubaune...
Und wieso kommen quasi alle Topgames der nächsten MOnate mit 3Dc Unterstützung? :) Sogar DoomIII wird 3Dc nutzen und wenn der John Carmack sowas unterstützt, sollte dir ein Licht aufgehen.

LovesuckZ
2004-05-04, 12:59:37
Original geschrieben von betareverse
Und wieso kommen quasi alle Topgames der nächsten MOnate mit 3Dc Unterstützung? :) Sogar DoomIII wird 3Dc nutzen und wenn der John Carmack sowas unterstützt, sollte dir ein Licht aufgehen.

Du meinst, die selben topgames, die auch das SM3.0 unterstuetzten?
Warst nicht du der jenige, der das SM3.0 jedoch immer runtergspielt hat?
Also bitte, mache dich so auch so gleich an die Arbeit, 3Dc die Brauchbarkeit abzusprechen!

DrFreaK666
2004-05-04, 13:00:28
Original geschrieben von x-dragon
Ist ja noch nicht offiziell im akt. Cat. 4.4 freigeschaltet!

Ahso, stimmt ja... THX

LovesuckZ
2004-05-04, 13:01:19
Original geschrieben von [dzp]Viper
warum sollte es sinnlos sein??


Weil auch das SM3.0 sinnlos nach einigen waere. So dann wohl auch 3Dc.

HOT
2004-05-04, 13:01:41
Original geschrieben von LovesuckZ
Warum waere 3Dc geil? Der User hat davon doch garnichts zur Zeit. Also dieses Feature ist sowas von nutzlos. Da haette Ai doch besser noch weiter den Speed erhöht, anstatt solchen Mist einzubaune...

Genau das hat man von S3TC auch behauptet.. und was ist? Jeder scheiss Chip hat es implementiert :D

HOT
2004-05-04, 13:02:38
Original geschrieben von LovesuckZ
Weil auch das SM3.0 sinnlos nach einigen waere. So dann wohl auch 3Dc.

Das ist konsequent rofl

Weder noch ist sinnlos

LovesuckZ
2004-05-04, 13:03:57
Original geschrieben von HOT
Genau das hat man von S3TC auch behauptet.. und was ist? Jeder scheiss Chip hat es implementiert :D

Ja und jeder Chip wird auch das SM3.0 haben *eg*.
Es geht ja nur darum, dass gewisse Leute etwas "niedermachen", aber eigentlich den den selben Crap eines anderen "hochloben". Widerspruch, der immer aus der einen Ecke kommt...

x-dragon
2004-05-04, 13:06:48
Original geschrieben von LovesuckZ
Ja und jeder Chip wird auch das SM3.0 haben *eg*.
Es geht ja nur darum, dass gewisse Leute etwas "niedermachen", aber eigentlich den den selben Crap eines anderen "hochloben". Widerspruch, der immer aus der einen Ecke kommt... Und warum machst du es dann nicht selber einfach besser? Oh stimmt, dann könnte man hier vielleicht normal über die evtl. Vor- und Nachteile diskutieren ...

deekey777
2004-05-04, 13:07:15
Original geschrieben von LovesuckZ
Ja und jeder Chip wird auch das SM3.0 haben *eg*.
Es geht ja nur darum, dass gewisse Leute etwas "niedermachen", aber eigentlich den den selben Crap eines anderen "hochloben". Widerspruch, der immer aus der einen Ecke kommt...

Natürlich wird jeder Chip SM 3.0 haben, aber du verwechselt den Sinn der SM 3.0 Fähigkeit der NV40 mit der SM 3.0 Fähigkeit der R500/NV50.

3Dc dagegen ist ein sinnvolleres Feature als die SM 3.0 der NV40!

betasilie
2004-05-04, 13:07:43
Original geschrieben von LovesuckZ
Ja und jeder Chip wird auch das SM3.0 haben *eg*.
Es geht ja nur darum, dass gewisse Leute etwas "niedermachen", aber eigentlich den den selben Crap eines anderen "hochloben". Widerspruch, der immer aus der einen Ecke kommt...
Ich glaube enn hier jemand etwas niedermachen will, dann Du!

Ist schon bitter die Pille, dass nVidia so klar gegen ATI verliert. :bigl:

TheCounter
2004-05-04, 13:07:47
Original geschrieben von LovesuckZ
Ja und jeder Chip wird auch das SM3.0 haben *eg*.
Es geht ja nur darum, dass gewisse Leute etwas "niedermachen", aber eigentlich den den selben Crap eines anderen "hochloben". Widerspruch, der immer aus der einen Ecke kommt...

Frägt sich nur was momentan mehr bringt, SM3.0 oder 3Dc...

Das ist das was zählt, mich interessiert es nämlich nicht ob in 12 Monaten SM3.0 mehr bringt, denn bis dahin hab ich evtl. schon nen NV50 oder R500 ;)

LovesuckZ
2004-05-04, 13:08:14
Original geschrieben von x-dragon
Und warum machst du es dann nicht selber einfach besser? Oh stimmt, dann könnte man hier vielleicht normal über die evtl. Vor- und Nachteile diskutieren ...

Mit Sarkasmus zu spielen macht einfach spass.

deekey777
2004-05-04, 13:08:23
Diese Diskussion bringt nichts!!!

Fadl
2004-05-04, 13:09:00
Original geschrieben von TheCounter
Frägt sich nur was momentan mehr bringt, SM3.0 oder 3Dc...

Das ist das was zählt, mich interessiert es nämlich nicht ob in 12 Monaten SM3.0 mehr bringt, denn bis dahin hab ich evtl. schon nen NV50 oder R500 ;)

Genauso sehe ich das auch.

LovesuckZ
2004-05-04, 13:09:25
Original geschrieben von betareverse
Ich glaube enn hier jemand etwas niedermachen will, dann Du!


Nein, denn ein gewisser "betareverse" hat nachweisbar gegen das SM3.0 gebasht, aber hypt jetzt etwas, was den selben Zweck erfüllt: Speed.
Urkomisch.

AlfredENeumann
2004-05-04, 13:09:48
Original geschrieben von ow
Willst du damit allen Ernstes behaupten, dass auf Karten die RAM-Kuehler nutzen der RAM ausserhalb seiner Spezifikation betrieben wird?


Nö. Wer so ein firlefanz braucht soll es halt mitbezahlen.

betasilie
2004-05-04, 13:10:15
Original geschrieben von deekey777
Diese Diskussion bringt nichts!!!
Das ist keine Diskussion, solange LS so einen Müll von sich gibt, um gegen ATI zu flamen. ;)

Steel
2004-05-04, 13:10:24
Original geschrieben von LovesuckZ
Ja und jeder Chip wird auch das SM3.0 haben *eg*.
Es geht ja nur darum, dass gewisse Leute etwas "niedermachen", aber eigentlich den den selben Crap eines anderen "hochloben". Widerspruch, der immer aus der einen Ecke kommt...
Ja. Im Moment aus deiner Ecke.

Der Unterschied scheint ja doch viel mehr zu sein, dass 3Dc ein Feature ist, was offenbar 1. spürbar was bringt und 2. in aktuellen bzw. in absehbarer Zeit erscheinenden Spielen von aktueller Hardware problemlos genutzt werden kann.
Wir werden ja sehen, wie viele Spiele demnächst SM3.0 verwenden werden.

betasilie
2004-05-04, 13:12:15
Original geschrieben von Steel
Ja. Im Moment aus deiner Ecke.

Der Unterschied scheint ja doch viel mehr zu sein, dass 3Dc ein Feature ist, was offenbar 1. spürbar was bringt und 2. in aktuellen bzw. in absehbarer Zeit erscheinenden Spielen von aktueller Hardware problemlos genutzt werden kann.
Wir werden ja sehen, wie viele Spiele demnächst SM3.0 verwenden werden.
Und wieviel SM3.0 bringt. Es kann nämlich auch Spiele geben, wo der Speedvorteil von SM3.0 bei 0% liegt.

Die 4:1 von 3Dc lassen viel erwarten! =) Und wenn selbst id-Soft mitzieht in DoomIII, muss 3Dc wirklich gut sein.

LovesuckZ
2004-05-04, 13:13:58
Original geschrieben von betareverse
Das ist keine Diskussion, solange LS so einen Müll von sich gibt, um gegen ATI zu flamen. ;)

"Müll"?
Warte, ich weiß wer noch "so einen Müll von sich gibt, um gegen [Nvidia] zu flamen." http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1774765#post1774765

So, nun noch viel Spass, in euer ATi-Welt, wo alles bestens ist, was sie machen...

tombman
2004-05-04, 13:14:27
Original geschrieben von DrFreaK666
Ahso, stimmt ja... THX
stimmt Gott sei Dank NICHT ;)

Ich hab selbst schon temp AA Test gemacht mit cat 4.4 und 9800XT und es funktioniert wunderbar.

Nur sind es noch die alten sample Muster und nicht die neuen der x800 Serie....trotzdem geht es wunderbar.

Am geilsten ist 2x AA mit 3x temp ----> 6x AA zum "Preis" von 2xAA :cool:

Man muß nur beachten das die fps wenn möglich HÖHER als die Hz des Monitors sein sollten, sonst kann es zu flimmern kommen.

Ich habe 960x600 auf UT2004 Gael map getestet auf verschiedenen temp und aa settings, und es hat immer funktioniert.

Statt mit 6x AA 70fps, hatte ich ich mit 2xAA/3xtmp (=6) 130fps und es sag GENAUSO aus wie mit "echtem" 6x AA :cool: ;) Und das mit dem selben speed, der normalerweise 2x AA ausmacht, nämlich 130fps ;)

Fazit: temp AA = ownage

DrFreaK666
2004-05-04, 13:15:01
Also bis vor Kurzem machte es noch Spaß hier zu lesen.... :-(

betasilie
2004-05-04, 13:15:37
Original geschrieben von LovesuckZ
Nein, denn ein gewisser "betareverse" hat nachweisbar gegen das SM3.0 gebasht, aber hypt jetzt etwas, was den selben Zweck erfüllt: Speed.
Urkomisch.
Ich habe nie gegen SM3.0 gebasht. Ich habe immer gesagt, dass alle kommenden Shader-Games SM3.0 unterstützen werden und einen Speedvorteil daraus ziehen werden. Nur muss man abwarten wieviel jedes einzelne Game davon profitiert. Es gibt halt eine menge Shader, die durch SM3.0 kaum beschleunigt werden, im Vergleich zu SM2.0.

Ich sage lediglich, dass es für SM3.0 in den nächsten 12 Mnaten keine optischen Unterschiede geben wird zu PS2.0-Games.

3Dc ist einFeature was durch sein 4:1 Compression ganz klar abesehbare Vortele bringen wird, in ganz kurzer Zeit.

Demirug
2004-05-04, 13:16:39
Original geschrieben von betareverse
Und wieviel SM3.0 bringt. Es kann nämlich auch Spiele geben, wo der Speedvorteil von SM3.0 bei 0% liegt.

Die 4:1 von 3Dc lassen viel erwarten! =) Und wenn selbst id-Soft mitzieht in DoomIII, muss 3Dc wirklich gut sein.

Die 4:1 sind von ATI schön geredet.

betasilie
2004-05-04, 13:17:30
Original geschrieben von LovesuckZ
"Müll"?
Warte, ich weiß wer noch "so einen Müll von sich gibt, um gegen [Nvidia] zu flamen." http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1774765#post1774765

So, nun noch viel Spass, in euer ATi-Welt, wo alles bestens ist, was sie machen...
Oh entschuldige, dass ich eine ander Meinung zu SM3.0 habe, als Du. Ich vertrete die Meinung allerdings mit Argumenten, Du hingen flamest einfach nur, indem Du ohne Argumentation 3Dc als quatsch hinstellst.

betasilie
2004-05-04, 13:17:52
Original geschrieben von Demirug
Die 4:1 sind von ATI schön geredet.
Wieviel wird das im Durchschnitt sein? 1:2?

x-dragon
2004-05-04, 13:18:25
Original geschrieben von tombman
stimmt Gott sei Dank NICHT ;)
... Ich hab ja auch gesagt OFFIZIELL ist es noch nicht enthalten, also so das man es übers Controlpanel einstellen kann und ATI es als das MEGAULTRA-Feature überhaupt anpreist :).

Kann ja auch gut sein das ATI da noch einiges am optimieren ist für den nächsten Treiber.

DrumDub
2004-05-04, 13:18:59
Original geschrieben von LovesuckZ
"Müll"?
Warte, ich weiß wer noch "so einen Müll von sich gibt, um gegen [Nvidia] zu flamen." http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1774765#post1774765

So, nun noch viel Spass, in euer ATi-Welt, wo alles bestens ist, was sie machen...

hast recht. nur manche leute kapierens einfach nicht. jetzt 3dc hypen ohen dass man den wirklichen nutzen davon gesehen hat, ist absolut lächerlich. aber lass den fanboys ihren spaß... anscheinend ist das wohl einfacher, als sich mal objektiv mit der hardware auseinanderzusetzen.

Demirug
2004-05-04, 13:20:48
Original geschrieben von betareverse
Wieviel wird das im Durchschnitt sein? 1:2?

Immer genau 2:1. 3dc ist ein Verfahren mit fester Kompressionsrate bei variabeler Genauigkeit.

x-dragon
2004-05-04, 13:22:20
Original geschrieben von Demirug
Immer genau 2:1. 3dc ist ein Verfahren mit fester Kompressionsrate bei variabeler Genauigkeit. Wie jetzt? Bei Chip stand was von verlustfreier Komprimierung ... Haben die sich bei den Specs irgendwie verlesen?

betasilie
2004-05-04, 13:22:57
Original geschrieben von DrumDub
hast recht. nur manche leute kapierens einfach nicht. jetzt 3dc hypen ohen dass man den wirklichen nutzen davon gesehen hat, ist absolut lächerlich. aber lass den kindern ihren spaß... anscheiend ist das wohl einfacher, als sich mal objecktiv mit der hardware auseinanderzusetzen.
:| Ich glaube eine sachliche Diskussion zum Thema 3Dc verhindert eher LS mit seinen Postings, indem er schlicht schreibt, dass 3Dc Mist ist und SM3.0 super.

Und wenn Du ernsthaft meinst, dass LS sich sachlich mit ATI-Karten auseinander setzen will, dann frage ich mich wo Du die letzten Jahre in diesem Forum warst. Von LS hört man nie etwas positives über ATI, weil er schlicht ein NV-Fan ist. Von daher ist dein Kommentar ein schlechter Witz.

betasilie
2004-05-04, 13:24:29
Original geschrieben von Demirug
Immer genau 2:1. 3dc ist ein Verfahren mit fester Kompressionsrate bei variabeler Genauigkeit.
Wie kommt ATI(Chip.de) dann dazu so einen 4:1 Quatsch zu verbeiten? :spock:

...


Achso. Also 2:1 lossless und bis 4:1 mit Verlust?

AlfredENeumann
2004-05-04, 13:25:11
Original geschrieben von ow
Das hat er so nicht gesagt. :)

Ich zitiere mal:

"Und wenn man RAM innerhlab seiner Spezifikation benutzt muß man es nicht Kühlen."

Siehst du den Unterschied?


OW und Quasar. Die Meister im Wort im Munde herumdrehen.
Ich bezog meinen Beitrag auf ein Posting wegen der Kühlung der RAMs auf den X800 Boards. Ich sagte das es nicht notwenig ist, weil innerhalb der Spezifikation. Kalr kann man Beispiele bringen wo man mit DDR2-RAM kommt, welches Kühlung bedarf. Aber das ist ja auch was anderes.
Wenn RAM vorgesehen ist, das es nur mit Kühlung funktioniert, dann ist das halt so.
aber wenn nicht vorgesehen ist, das das RAM einer Kühlung bedarf dann sind RAM-Kühler auch Mumpitz.

Mayhem
2004-05-04, 13:26:59
Original geschrieben von x-dragon
Wie jetzt? Bei Chip stand was von verlustfreier Komprimierung ... Haben die sich bei den Specs irgendwie verlesen?
Es gibt keine verlustfreie Komprimierung mit fester Ratio.

x-dragon
2004-05-04, 13:29:23
Original geschrieben von Mayhem
Es gibt keine verlustfreie Komprimierung mit fester Ratio. Ja ne das ist schon klar, aber es war ja auch die Rede von einer Komprimierung bis zu 4:1. Vielleicht hat betareverse ja den Kern oben getroffen.

Mayhem
2004-05-04, 13:30:39
Original geschrieben von x-dragon
Ja ne das ist schon klar, aber es war ja auch die Rede von einer Komprimierung bis zu 4:1. Vielleicht hat betareverse ja den Kern oben getroffen.

Auch festes 2:1 lossless ist nicht möglich.

Demirug
2004-05-04, 13:30:41
Original geschrieben von betareverse
Wie kommst ATI(Chip.de) dann dazu so einen 4:1 Quatsch zu verbeiten? :spock:

Ganz einfach.

ATI geht von einer Normalmap mit 4 Elementen (XYZW) aus. W wird sowieso nicht gebraucht kann man also wegstreichen. 25% gespart. Z streichen sie dann auch noch weg. Nochmal 25% gespart. Jetzt hat die Textur nur noch zwei Elemente ergo hat man ja schon 2:1 "komprimiert". Die zwei verbleibenden Kanäle komprimiert man nun noch um 2:1. Von der Ausgangsmenge betrachtet hat man jetzt 4:1 komprimiert. Da man aber in Wirklichkeit nur eine textur mit 2 Komponeten komprimiert hat ist 4:1 falsch.

EDIT: PS: Da man Z aber braucht muss man es im Pixelshader aus x und y wieder errechnen. Deswegen muss man ja auch die Pixelshader umschreiben.

betasilie
2004-05-04, 13:31:47
Original geschrieben von x-dragon
Vielleicht hat betareverse ja den Kern oben getroffen.
Ne, meine Vermutung würde es dann auch nicht treffen, da danach ja lossless bei statischem 2:1 wäre.

Also schlicht bis 4:1 im Idealfall und dann je nach dem bis runter zu x:1?

ow
2004-05-04, 13:33:19
.

betasilie
2004-05-04, 13:33:52
Original geschrieben von Demirug
Ganz einfach.

ATI geht von einer Normalmap mit 4 Elementen (XYZW) aus. W wird sowieso nicht gebraucht kann man also wegstreichen. 25% gespart. Z streichen sie dann auch noch weg. Nochmal 25% gespart. Jetzt hat die Textur nur noch zwei Elemente ergo hat man ja schon 2:1 "komprimiert". Die zwei verbleibenden Kanäle komprimiert man nun noch um 2:1. Von der Ausgangsmenge betrachtet hat man jetzt 4:1 komprimiert. Da man aber in Wirklichkeit nur eine textur mit 2 Komponeten komprimiert hat ist 4:1 falsch.

EDIT: PS: Da man Z aber braucht muss man es im Pixelshader aus x und y wieder errechnen. Deswegen muss man ja auch die Pixelshader umschreiben.
:| Das ist ja miesestes Marketing.

Und was ist jetzt mit dem Verlust? Es ist ja eigentlich von lossless die rede. :kratz:

LovesuckZ
2004-05-04, 13:33:52
Muss 3Dc vom Spielentwickler extra beruecksichtigt werden?

Mayhem
2004-05-04, 13:34:18
Die 2 verbliebenen sind aber verlustbehaftet komprimiert, oder ?

betasilie
2004-05-04, 13:34:35
Original geschrieben von LovesuckZ
Muss 3Dc vom Spielentwickler extra beruecksichtigt werden?
Ja.

Demi schrieb, dass die Shader angepasst werden müssen und die Texturen in einem spezielen Format hinterlegt.

LovesuckZ
2004-05-04, 13:37:38
Original geschrieben von betareverse
Demi schrieb, dass die Shader angepasst werden müssen und die Texturen in einem spezielen Format hinterlegt.

Inwieweit sehe dann der Eingriff in eine vorhandene Engine denn aus?

ow
2004-05-04, 13:38:42
.

AYAlf
2004-05-04, 13:39:17
nach dem ganzen extrem spam in diesem thread, moechte ich nicht hinten anstehen ;D

welche ironie!

dong dong dong

sieg in der ersten runde, durch k.o. von ati gegen nvidia. wie im letzten kampf geht nvidia sang und klanglos auf die bretter. die frage die sich jetzt stellt. wird nvidia den naechsten kampf noch ueberstehen? gibt es genug nvidia hardcorefanboys die noch zu ihrem sehr angeschlagenen ex-ex-champion halten werden? wer findet die antworten auf die weltbewegenden fragen?

hat nvidia alles falsch gemacht?
hat ati alles richtig gemacht?
sollte sich nvidia auf den motherboard sektor beschraenken?


ps: dieser text sollte als sarkasmus verstanden werden. er hat nichts (genau wie die posts ueber diesem post) mit der eigentlichen hardware diskusion zu tun.

und ow .. ich weiss schon .. ein strafpunkt weil ich sarkastisch bin und einen weil ich kein nvidia fanboy bin.

Major
2004-05-04, 13:47:18
nur weil auf Chip steht, dass HL2, Doom3 und Farcry 3Dc unterstützen werden, heisst das noch lange nicht das das so stimmt.

Bei Farcry scheint es, laut Demirug nicht so zu sein, und ich glaube da auch nicht dran, da ALLE Texturen dafür ja angepasst werden müssen.
Und wenn Chip bei Farcry schon so einen Mist verzapft, dann sicher auch bei Doom3 und HL2.

Wie oft wurden toll kompimierte Texturen in Spiele jetzt schon angekündigt, meist ist nix draus geworden.

Ich wette das wir diese Jahr vielleicht 1 oder 2 Spiele sehen werden, die 3Dc nutzen, aber die oben aufgeführen sind schon so weit und ich glaube nicht, dass man sich wegen den paar R420 Besitzern die Mühe gemacht hat, alle Texturen und Shader anzupassen, das ist utopisch.

Die 3Dc Hyper hier können sich ja wieder melden wenn sie in Farcry die 3Dc Texturen gefunden haben :D :D

Demirug
2004-05-04, 13:47:26
Mayhem, Ja auf 50%

ow, man tauscht etwas mehr Qualität bei komprimierten Normalmaps gegen Shaderleistung. Oder eben alternativ bei unkomprimierten texturen (dort geht das auch) Bandbreite gegen Shaderleistung. Automatisch geht das nicht aber mit ein bischen bedingter Compilierung kann man das einigermassen lösen. Allerdings sollte man es von Anfang an berücksichtigt haben sonst muss man jeden Shader nochmal anfassen.

BK-Morpheus
2004-05-04, 13:49:14
Original geschrieben von tokugawa
Allerdings sind die 480W eine reine "Sicherheitsangabe", d.h. mit den 480W ist ein schlechtes billiges "worst case" 480W Netzteil gemeint.

Dass die 6800 Ultra auf einem guten 350W Netzteil auch rennt, ist ja Tatsache.
ATI wird aber auch eine reine Sicherheitsangabe gemacht haben mit ihren 300Watt....also zumindest kann man wohl davon ausgehen, dass die X800XT IMO stromsparender ist als die 6800Ultra ist.

Mayhem
2004-05-04, 13:49:14
Original geschrieben von ow
Macht es Sinn, Z erst zu streichen um es dann spaeter wieder per PS auszurechnen? Hoert sich fuer mich nach ziemlichem Aufwand an. Kann der HLSL Compiler diese geaenderten PS automatisch erzeugen?

Ich denke in Spielen mit wenig Arithmetischen Ops kann man durch die gesparte Bandbreite ein paar Prozentpunkte gutmachen. Vor allem dürfte es kein größeres Problem sein, dieses Format zu automatisieren. Das größere Problem dürfte sein, abzuschätzen wann 3Dc nützlich und wann es hindernd ist.

Weltbewegend dürfte 3Dc aber nicht sein.

@Demi : Danke!

DrumDub
2004-05-04, 13:50:47
Original geschrieben von betareverse
:| Ich glaube eine sachliche Diskussion zum Thema 3Dc verhindert eher LS mit seinen Postings, indem er schlicht schreibt, dass 3Dc Mist ist und SM3.0 super.

Und wenn Du ernsthaft meinst, dass LS sich sachlich mit ATI-Karten auseinander setzen will, dann frage ich mich wo Du die letzten Jahre in diesem Forum warst. Von LS hört man nie etwas positives über ATI, weil er schlicht ein NV-Fan ist. Von daher ist dein Kommentar ein schlechter Witz.

sorry, aber wenn du auf ls imho berechtigten sarkasmus anspringst um dich dann hinterher zu vertreidigen, dass er pro-nv ist, dann hast du imho nicht den sinn seiner postings verstanden.

ich persönlich bin auch pro-ati, da aich wert auf einen kompromiss zwischen leistung und iq lege, aber man darf bei aller liebe nicht vergessen, dass ati und nv recht unterschiedliche ausrichtigen haben, was die zu bedienenden märkte angeht.

ati hat sich in den letzten jahren ausschließlich auf den gaming-markt konzentriert, was man an den verschiedenen implementierungen von features sieht (af-blume, ps 2.0 mit fp24 etc.). nvidia hingegen engagiert sich seit jeher wensentlich stärker im cgi und rendering-markt und fährt im bezug auf ihre produkte zweigleisig, was es wesentlich schwieriger macht auf reine speed in spielen zu optimieren bzw. einfach features wegzulassen, die für diesen bereich wichtig sind. deshalb hat nv technologisch sogar mit dem nv30 das fortschrittlichere produkt geliefert, welches aber einfach viel zu langsam war, um mit dem r300 konkurieren zu können, da man sich wohl eher auf den einsatz im cgi-bereich konzentriert hat, denn auf spiele.

diesen fehler konnte man auch mit dem nv38 nicht ausbügeln. erst der nv40 stellt jetzt wieder ein gewisses gleichgewicht zwischen features und speed her, wobei ich den hauptvorteil immer noch bei den features sehe. der preis dafür ist aber wiederum, dass man speedmäßig nicht ganz mithalten kann und, was sich als viel schlimmer erweisen könnte, eventuell ernsthafte probelme mit der produktion der chips haben könnte, wenn ati in kürze in ausreichenden stückzahlen liefern kann und nv erst im juli.

um zu einem ende zu kommen: nv hat eine andere unternehmensphilosophie als ati und daher kann man die produkte der beiden, wenn man sie nur aus einer perspektive betrachtet, nicht richtig beurteilen. ati macht die schlankeren produkte, die aber weniger für spieleentwickler, grafiker, 3d-modeller etc. bieten, dafür aber besser auf die bedürfnisse des einfachen spielers abgestimmt sind.

wer sich aber über ein feature bei nv beschwert, von dem er als spieler wahrscheinlich erst bei der nächsten generation profitiert, weil die spieleentwickler es auf dem nv40 nutzen können, der darf imho nicht ein feature bei ati hypen, welches wahrscheinlich nur für den spieler in der praxis sinn macht, aber technolgisch nun wirklich nicht die innovation ist.

ow
2004-05-04, 13:53:50
.

x-dragon
2004-05-04, 13:54:17
@ Mods
könnte man dem 3Dc-Teil nicht vielleicht ein extra Thread spendieren?

Original geschrieben von BK-Morpheus
ATI wird aber auch eine reine Sicherheitsangabe gemacht haben mit ihren 300Watt....also zumindest kann man wohl davon ausgehen, dass die X800XT IMO stromsparender ist als die 6800Ultra ist. Ich meine sie soll zumindest stromsparender sein als die 9800 Pro, wenn ich mich nicht verlesen habe und das will schon was heißen.

tRpii
2004-05-04, 13:57:23
Original geschrieben von Major
Die 3Dc Hyper hier können sich ja wieder melden wenn sie in Farcry die 3Dc Texturen gefunden haben :D :D

Das stimmst schon aber von SM3.0 wird man auch erst in geraumer Zeit sehen was es unterm Strich bringt. Klar sind schon Titel angekündigt aber es bleibt auch da abzuwarten ob es Performance-technisch überhaupt etwas bringt und da man ja bei der IQ keine großartigen/keine unterschiede bei 3.0 gegenüber 2.0 merkt würde bei den pro's nurnoch die Performance übrig bleiben.

Es gab schon viele anfangs gutgemeinte Features die im Endeffekt in einer Handvoll Titeln verwendet wurden aber dann wieder mehr oder weniger vergessen wurden. Ob sich 3Dc durchsetzen wird bleibt abzuwarten, aber dass SM3.0 irgendwann standard wird steht eigentlich schon fest nur stellt sich hier dennoch die frage ob die Features überhaupt in naher zukunft ausreichend verwendung finden.

betasilie
2004-05-04, 13:59:27
Original geschrieben von LovesuckZ
Inwieweit sehe dann der Eingriff in eine vorhandene Engine denn aus?
Die Shader einfach neu compilen. So wie auch bei SM3.0. :)

DrumDub
2004-05-04, 13:59:40
Original geschrieben von x-dragon
Ich meine sie soll zumindest stromsparender sein als die 9800 Pro, wenn ich mich nicht verlesen habe und das will schon was heißen.

nein. lt. chip.de verbrauchte das testsystem mit einer 9800xt 204w und mit der x800xt 216w im 3d-betrieb. dafür scheint die karte im 2d-betreib wesentlich weniger zu verbrauchen als dir r3x0-chips.

ow
2004-05-04, 14:00:55
.

Demirug
2004-05-04, 14:02:26
Original geschrieben von betareverse
Die Shader einfach neu compilen. So wie auch bei SM3.0. :)

Leider nein. 3dc erfordert eine Veränderung am Sourcecode des HLSL Shaders.

BK-Morpheus
2004-05-04, 14:06:31
wenn Chip schreibt
"Leistungsaufnahme: 300-Watt-Netzteil genügt[...]
Dagegen genügen den neuen Radeon-X800-Modellen ein Stromstecker und Netzteile, die eine Ausgangsleistung von 300 Watt bieten. "

Dann gehe ich als Leser davon aus, dass die ihre Angaben auf ATI's Spezifikationen beziehen und es sich nicht selber ausgedacht haben, weil es mit ihrem 300Watt NT lief....nagut, man sollte eh nicht alles glauben, was bei CHip steht....bin von daher auf das 3Dcenter & das THG Review gespannt...auch wegen Stromverbrauchsangaben.

ow
2004-05-04, 14:06:32
.

betasilie
2004-05-04, 14:07:33
Ok, das hätte ich nicht vermutet.

ow
2004-05-04, 14:09:39
.

betasilie
2004-05-04, 14:12:17
Original geschrieben von ow
Fass du dir doch einfach mal an deine eigene Nase, denn all das was du hier schreibst trifft auch exakt auf dich zu.
Insofern ist dein Posting nur ein schlechter Witz.
Vielleicht könnte ich deine Meinug akzeptieren, wenn Du mir sagst, wie Du darauf kommst, dass das auf mich auch zutrifft.


Original geschrieben von LovesuckZ
Warum waere 3Dc geil? Der User hat davon doch garnichts zur Zeit. Also dieses Feature ist sowas von nutzlos. Da haette Ai doch besser noch weiter den Speed erhöht, anstatt solchen Mist einzubaune...
Original geschrieben von LovesuckZ
Weil auch das SM3.0 sinnlos nach einigen waere. So dann wohl auch 3Dc.
Also sowas in der Art würde ich nie von mir geben. LS gibt ja somit sogar zu, dass er gegen 3Dc flamed, weil so viele User hier SM3.0 wenig praktische Relevanz in kommenden Spielen zusprechen.

Demirug
2004-05-04, 14:13:18
Original geschrieben von betareverse
Ok, das hätte ich nicht vermutet.

Vielleicht ist ATI ja noch so nett und baut etwas in den Treiber das wenn man eine 3dc Textur benutzt die entsprechenden Codezeilen automatisch in den Shader eingefügt werden.

DrumDub
2004-05-04, 14:15:17
Original geschrieben von ow
Also zunaechst sollte man Chip nicht so ernst nehmen.

Und zweitens, falls Ati eine solche Angabe gemacht hat, dann ist die hoechst unserioes, weil garantiert nicht jedes System mit X800 mit einem 300W NT stabil zu betreiben ist. S. mein obiges Posting nochmal.

BTW. Leo hat den NV40 auch nur mit einem 300W NT betrieben, aber garantieren kann keiner, dass das laeuft.

ich glaube nicht, dass diese angabe mit 300w von ati selber kommt, da sie schon bei der 9700pro damals ein 350w netzteil empfohlen haben, wenn ich mich recht entsinne. was chip.de in dem gesamten artikel schreibt klingt nach unseriösen fanboy-gebrabbel. X-D

Mhhhhhh
2004-05-04, 14:18:47
Original geschrieben von Demirug
Vielleicht ist ATI ja noch so nett und baut etwas in den Treiber das wenn man eine 3dc Textur benutzt die entsprechenden Codezeilen automatisch in den Shader eingefügt werden.

Wollte mal fragen, ob du schon was zu den Pixelshadern des R420 sagen kannst? Inwieweit unterscheiden sich diese zu denen beim R3xx?

x5
2004-05-04, 14:19:21
Ich räume PS 3.0 bis zur nächsten Graka-Generation überhaupt keine Relevanz ein.

DrumDub
2004-05-04, 14:20:25
hier die werte von chip.de:

Dass die sehr guten Messwerte nicht automatisch eine hohe Stromaufnahme bedingen, wird daran deutlich, dass für X800-XT-Grafikkarten lediglich ein zusätzlicher Stromstecker benötigt wird. Die Gesamtleistung unseres Testsystems lag zwischen 99 Watt (Desktop) und maximalen 216 Watt im 3D-Modus. Das ist nur wenig mehr als ein vergleichbares Radeon-9800-XT-System, das auf 204 Watt kommt.
http://www.chip.de/artikel/c_artikelunterseite_11828970.html?tid1=&tid2=

Aquaschaf
2004-05-04, 14:24:46
Original geschrieben von DrumDub
da sie schon bei der 9700pro damals ein 350w netzteil empfohlen haben

Da irrst du dich ;) Hab gerade nachgesehen, 300W werden empfohlen.

Demirug
2004-05-04, 14:28:29
Original geschrieben von Mhhhhhh
Wollte mal fragen, ob du schon was zu den Pixelshadern des R420 sagen kannst? Inwieweit unterscheiden sich diese zu denen beim R3xx?

Können schon aber noch nicht dürfen.

Das der R420 die feature des neuen 2.B Profils des HLSL Compilers unterstützt ist ja schon bekannt.

HOT
2004-05-04, 14:32:07
Original geschrieben von x5
Ich räume PS 3.0 bis zur nächsten Graka-Generation überhaupt keine Relevanz ein.

Für den Endnutzer hast du sicher recht. Aber für Entwickler ist das sicher SEHR relevant ;)

klaus
2004-05-04, 14:32:49
Original geschrieben von Pasta Reims
Aber wo sind die Farcry Benches bei 1280x1024 oder 1600x1200? 1024x768 spielt doch keiner mehr

Das sehe ich aber ganz anders. Ich spiele hier auf einem 19" CRT und das meist in 1024x768. Und zwar nicht, weil meine Grafikkarte nicht mehr hergibt, sondern weil in den meisten Spielen in höheren Auflösungen die Schrift und ähnliche Elemente der Anzeige unerträglich klein werden, so dass man sie kaum noch entziffern kann. Deshalb kann Deine Aussage insbesondere für die 1600x1200er Auflösung nicht zutreffen, denn auf Monitoren unterhalb 21" hat das wenig Sinn, da man o.g. Dinge nur noch mit einer Lupe erkennen kann.

Aus diesem Grund halte ich - gegenüber einer sehr hohen Auflösung - die Nutzung von Anti-Aliasing für zweckmäßiger. Selbst wenn ich - hoffentlich sehr bald - meinem Rechner eine der neuen ATi/nVidia-Karten implantiert habe, werde ich (die bezüglich einer zu sehr "geschrumpften" Anzeige von Text kritischen Spiele) höchstwahrscheinlich weiterhin mit maximal 1280x1024 Punkten zocken. Allerdings sind die sehr hohen Auflösungen in Grafikkartentests wichtig, da man nur so deren tatsächliches Potenzial ermitteln kann.

Original geschrieben von Radeonator
Sry, aber QUATSCH!

Die meisten Online Zocker spielen 1024x768, mancheiner ist sogar so pervers und spielt in 800x600(Hallo liebe Q3 Gemeinde ;) )

Dann waren wir ja vor sieben, acht Jahren alle so kleine Perverse, hehe. :bigl:

DrumDub
2004-05-04, 14:33:44
Original geschrieben von Aquaschaf
Da irrst du dich ;) Hab gerade nachgesehen, 300W werden empfohlen.

ok. mea culpa. :)

gilt auch für die 9800pro/xt:

Otherwise, ATI recommends a 300-Watt power supply or greater to ensure normal system operation where a number of other internal devices are installed.

http://www.ati.com/products/radeon9800/radeon9800pro/specs.html

Quasar
2004-05-04, 16:10:21
Original geschrieben von TheCounter
Daneben profitiert schon jetzt das Spiel Far Cry von 3Dc.

Scheint wohl doch lossless zu sein :D

Weder noch ist richtig. =)

TheCounter
2004-05-04, 16:56:38
Original geschrieben von Demirug
Leider nein. 3dc erfordert eine Veränderung am Sourcecode des HLSL Shaders.

Aber SM3.0 muss ja auch Enginetechnisch unterstützt werden, also muss man das doch auch nachträglich einbauen wenn das nicht schon von anfangn an geschehen ist. Also kommt es doch aufs gleiche raus?

@Quasar

Naja ersteres weist du ja nicht, gibt weder einen Beweis dafür noch einen dagegen ;)

Quasar
2004-05-04, 17:03:28
Original geschrieben von TheCounter
@Quasar

Naja ersteres weist du ja nicht, gibt weder einen Beweis dafür noch einen dagegen ;)

Meinst du nicht, ATi hätte es sonst in ihrem PDF mit auf die Liste der unterstützten/Unterstütztenden Applikationen gesetzt? ;)

Da stehen momentan die Ruby-Demo, eine HL2-Demo und die Crash-Demo drauf.