PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller R420 / Radeon X800 Thread


Seiten : 1 2 3 4 5 6 7 8 9 [10]

Gast
2004-06-11, 16:35:36
Und dazu passend ein AMD 64 wie im ersten Bild zu sehen :D

DrumDub
2004-06-11, 16:36:54
Original geschrieben von dildo4u
http://www.gzeasy.com/itnewsdetail.asp?nID=15385 in japan schon zu kaufen

toll, aber was nützt mir die karte ohne mainboard. :freak:

reunion
2004-06-11, 19:33:26
Original geschrieben von DrumDub
toll, aber was nützt mir die karte ohne mainboard. :freak:

Ja, und außerdem ist der Preis in japan auch recht happig:


I just bought one of twenty X800XT-PE's available in the retail channel here in Japan, and I'm about to take my X800Pro out and pop this bad boy in - I'll post back here with pics and screens for anyone interested, in about 30 minutes ... btw, the best price for this thing was what I paid: $680USD. Some places were charging around $900USD, and they were sold out - meaning there are some crazy locals, I guess ... lol.

http://www.rage3d.com/board/showthread.php?threadid=33763518

Vielleicht sind die Karten darum dort immer schon so schnell erhältlich :freak:

aths
2004-06-11, 20:12:32
Original geschrieben von klaus
Na endlich gibt's Gewissheit. :up: Somit gehen die 500 Euro aus dem "GeForce4Ti-Gedächtnisfond" an ATi. Ich spiele auf meiner NV-Karte ohne Treibertricks voll trilinear :)

reunion
2004-06-11, 20:16:31
Original geschrieben von aths
Ich spiele auf meiner NV-Karte ohne Treibertricks voll trilinear :)

Auf deiner FX-5900?
Seit wann denn das?

klaus
2004-06-11, 21:52:07
Original geschrieben von aths
Ich spiele auf meiner NV-Karte ohne Treibertricks voll trilinear :)

Tja ja, aber mit wieviel fps? :arsch:

Gast
2004-06-11, 23:05:19
Original geschrieben von aths
Ich spiele auf meiner NV-Karte ohne Treibertricks voll trilinear :)
Ja, dann bleib mal bei deinen 30 FPS. Ich spiele mit Treibertricks ohne merklichen Qualitätsverlust mit 50 FPS. Wir sehen ja ohnehin das gleiche, nur bei mir läufts eben schneller. :)

Hakkerstiwwel
2004-06-11, 23:11:52
Original geschrieben von aths
Ich spiele auf meiner NV-Karte ohne Treibertricks voll trilinear :)

http://www.3dcenter.de/artikel/versteckte_optimierungen/

und wie sieht s mit AF aus? :punch: :punch:

Uller
2004-06-11, 23:18:18
Original geschrieben von Hakkerstiwwel
http://www.3dcenter.de/artikel/versteckte_optimierungen/

und wie sieht s mit AF aus? :punch: :punch:

Wenn aths sagt er spielt ohne Treibertricks voll trilinear, dann ist damit vor allem AF gemeint!
:laola:

Gast
2004-06-12, 01:05:24
Original geschrieben von DrumDub
volle tri-filterung ala r3x0 ist auch mit dem r420 möglich: http://www.computerbase.de/news/hardware/grafikkarten/2004/juni/volle_filterung_ati_nvidia/

tjo, jetzt muss nur noch ati nen schalter dafür ins cp einbauen und wir sind alle glücklich. :)


Welche Karte meinst du jetzt ?

Gast
2004-06-12, 01:14:01
Original geschrieben von MarcWessels
Oder meintetwegen auch in nem Tool.

Jetzt hätte ich noch gerne Benchmarks gegen die 6800U mit dem neuen Treiber, der sie ja um 30% beschleunigen sollte.

Beide Karten natürlich mit voller Qualität. :D


Welche Karte meinst du jetzt ?



Sorry für den oberen post habe leider das falsche zitat erwischt

MarcWessels
2004-06-12, 02:50:02
X800 XT PE vs 6800U jeweils mit vollkommen deaktivierten Optimierungen. ;)

Quasar
2004-06-12, 08:15:32
Kommen bald.
Aber soviel vorweg, der 61.34 ist nicht der "30%-Zuwachs-Wundertreiber".

Was er in Far Cry schneller ist, frisst der R300-Pfad, den man momentan für gleich Bildqualität benutzen muss, wieder auf.
Mit FP16-Fix von Thomas (der zumindest die beiden echt ekligen Licht-Shader aus Patch 1.1 repariert) sind's IIRC mit dem 61.34 noch ca. 10-15%, so daß hier eine GT so schnell wird, wie die Ultra mit altem Treiber.

Uller
2004-06-12, 08:23:56
Gibt es also den Übertreiber schon?
Oder kann es nicht sein dass Nvidia die Steigerungen des 61.34 übertrieben angepriesen hat?

Quasar
2004-06-12, 08:40:01
Ich habe jedenfalls noch keinen Treiber in Händen gehabt, der durch die Bank 30% schneller gewesen wäre, als der Launch-Treiber.

Übertrieben werden sie sicherlich haben - 13% waren in meiner Far Cry Demo drin, die sich, wie schon gesagt, mit dem Verwenden anständiger Shader quasi egalisierten.

aths
2004-06-12, 11:51:44
Original geschrieben von Hakkerstiwwel
http://www.3dcenter.de/artikel/versteckte_optimierungen/

und wie sieht s mit AF aus? :punch: :punch: Auf der FX 5900 habe ich an AF alles, was die Hardware bieten kann. Das kostet je nach Situation 20 - 25% Leistung ggü. der "optimierten" Variante. Dafür findet man keine Stellen mehr, wo solche "Optimierung" Artefakte verursacht. Kurz, die Texturen sind genial, die Geschwindigkeit für die Spiele die ich Spiele mehr als nur ausreichend.
Original geschrieben von Uller
Wenn aths sagt er spielt ohne Treibertricks voll trilinear, dann ist damit vor allem AF gemeint!
:laola: Meiner neuesten Theorie nach müsste auch die 6800 das "klassische" AF, aber auf Grundlage des neuen isotropen Filters, noch beherrschen. Einen Beweis dafür habe ich aber nicht.

Was den neuen isotropen Filter angeht, ist ein Artikel geplant (etwas Text und einige Screenshots habe ich schon :).) Der kommt aber erst nach dem Artikel, der Momentan in Arbeit ist.

Zunächst muss man fragen, was ein Filter leisten soll. Hat man Kriterien, lassen sich Filter bewerten. Die Schwierigkeit besteht beim isotropen Filter darin, die allgemeine Gültigkeit bestimmter Kriterien zu beweisen. (Beim AF ist die Sache erheblich einfacher.)

Jesus
2004-06-12, 12:55:48
Original geschrieben von MarcWessels
X800 XT PE vs 6800U jeweils mit vollkommen deaktivierten Optimierungen. ;)

Der neue Cat 4.6 beschleunigt die x800 serie Ebenfalls um bis zu 10 % ( + 380% bei einigen Pixelshadern, neuer Pixelshader Compiler )

siehe Release Notes.

Btw. ich denke mittlerweile das eine X800 Pro das gegen Stück zur 6800 Ultra ist, oder sogar schneller ( lt. diverser Tests, www.hardocp.com z.b. bestätigt starke Slowdowns in höheren Auflösungen auf der 6800U. Z.b. wenn man bei BFV mit dem Sniper Zoomed wird es unspielbar bei hohen Details ( mit AA und AF ) die x800 Pro schafft das aber auch bei höheren Auflösungen ( angeblich ).

reunion
2004-06-12, 13:25:42
Original geschrieben von Jesus
Der neue Cat 4.6 beschleunigt die x800 serie Ebenfalls um bis zu 10 % ( + 380% bei einigen Pixelshadern, neuer Pixelshader Compiler )


Diese beschleunigung war allerdings schon beim Cat 4.5 beta dem die Reviewer für die Testes benutzt haben dabei.

Quasar
2004-06-12, 14:07:58
Ich frage mich nur, warum Robert von AMD-Insight.de das nicht bei seinem Treiber-Vergleich feststellen konnte?

Selektive Optimierung?

Gast
2004-06-13, 03:22:32
Original geschrieben von Jesus
Btw. ich denke mittlerweile das eine X800 Pro das gegen Stück zur 6800 Ultra ist, oder sogar schneller ( lt. diverser Tests, www.hardocp.com z.b. bestätigt starke Slowdowns in höheren Auflösungen auf der 6800U. Z.b. wenn man bei BFV mit dem Sniper Zoomed wird es unspielbar bei hohen Details ( mit AA und AF ) die x800 Pro schafft das aber auch bei höheren Auflösungen ( angeblich ).

auch für dich nochmal. Hardocp.com testet nicht mit gleichen Settings. Sie testen ATI optimiert gegen Nvidia unoptimiert.

Jesus
2004-06-13, 11:10:03
Original geschrieben von Gast
auch für dich nochmal. Hardocp.com testet nicht mit gleichen Settings. Sie testen ATI optimiert gegen Nvidia unoptimiert.

ich denke nicht das die beobachteten Slowdowns aufgrund einer nicht deaktivierten Optimierunge die im Schnitt 10% mehr bringt einen Unterschied machen würden. Slowdowns sind slowdowns, das heisst unspielbar an diese Stelle !

Gast
2004-06-16, 16:18:28
wie wärs dann mal mit nem Test auf 3dc ATI und Nvidia optimiert, und beide unoptimiert. Der Test auf CB ist fürn Arsch!

Ich denke das ATI da ganz schön die Nase vorn hätte ! ( deswegen hat mans auf CB wohl auch nicht so gemacht ... Nvidianer eben =)

misterh
2004-06-16, 16:20:15
Original geschrieben von Gast
wie wärs dann mal mit nem Test auf 3dc ATI und Nvidia optimiert, und beide unoptimiert. Der Test auf CB ist fürn Arsch!

Ich denke das ATI da ganz schön die Nase vorn hätte ! ( deswegen hat mans auf CB wohl auch nicht so gemacht ... Nvidianer eben =)

Blödsinn

deekey777
2004-06-23, 23:15:11
*Fredausgraber*

X800XT PCIe Review (http://www.driverheaven.net/reviews/R423/index.htm)

q@e
2004-06-23, 23:37:21
Ob man sich mit so einem unfertigen Treiber einen gefallen getan hat?

maximum fps sind schön hoch, average und lows allerdings z.T. deutlich unterhalb der AGP-Version.

2B-Maverick
2004-06-23, 23:57:25
Original geschrieben von q@e
Ob man sich mit so einem unfertigen Treiber einen gefallen getan hat?

maximum fps sind schön hoch, average und lows allerdings z.T. deutlich unterhalb der AGP-Version.

Die Frage is doch auch obs am Treiber oder evtl. am DDR-2 RAM des Mainboards liegt.

Man müsste das ganze mal auf einem Athlon64-System testen können... kann einer von euch da nen Prototypen Board bekommen :D ???

q@e
2004-06-24, 00:15:13
Also wenn ich mir so anschaue, daß des öfteren größere Rückstände mit AA und AF auftreten, dann glaube ich nicht, daß das noch auf DDR2 zu schieben ist.

DrumDub
2004-06-24, 12:14:55
Original geschrieben von q@e
maximum fps sind schön hoch, average und lows allerdings z.T. deutlich unterhalb der AGP-Version.

na ja, so schlimm isses nun auch nicht...

maximal 20% (27 vs. 32) unterschied bei far cry bei 1600x1200 4xaa/16xaf. bei ut 2004 sind die min fps sogar höher.

Jesus
2004-06-24, 12:16:41
und wer sagt das die Board treiber überhaupt schon ausgereift sind ?

dildo4u
2004-07-01, 21:21:05
http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=2&t=000038


Im test:Sapphire Radeon X800 Pro 256 MB

Jesus
2004-07-01, 21:53:08
nicht gerade toll, ein p4 3,06 ist imo zu schwach zum testen ( für diese Karte ).

[dzp]Viper
2004-07-01, 23:03:18
Original geschrieben von Jesus
nicht gerade toll, ein p4 3,06 ist imo zu schwach zum testen ( für diese Karte ).

:rofl:

sorry aber manchmal glaube ich, dass du selber nicht glaubst, was du da schreibst :eyes:

ein P4 3,06 GHZ gehört immernoch zu den HighEnd CPU´s - wenn auch nicht mehr absolut Top Highend...

Aber man kann ruhig mit so einem CPU die karte testen - denn einen Athlon 64 3400+ oder gar 3800+ :freak: haben wesentlich weniger leute und mit einem "etwas" durchschnittlicheren Testsystem können sich die leute einen wesentlich besseren Überblick verschaffen...

MarcWessels
2004-07-01, 23:06:46
Ausnahmsweise muß ich Jesus mal Recht geben. *g*

Jesus
2004-07-01, 23:07:33
naja aber z.b. im neuesten [H] test sieht man ziemlich gut das z.b. für FC ein P4 3.06 ( mit 533er fsb ? ) unterdimensioniert ist.

man sieht auch in dem hier angegeebenen Review bei FC kaum einen Unterschied zwischen ner x800 pro und ner XT und das soll schon was heissen ;)

LovesuckZ
2004-07-01, 23:10:54
Heutige CPUs sind in 95% aller Spiele der limitierende Faktor bei einem GPU Vergleich.
Erst mit AA/AF zeigen die Karten, was in ihnen steckt. Wozu also CPUs vewenden, welche niemand verwendet?

Original geschrieben von Jesus
man sieht auch in dem hier angegeebenen Review bei FC kaum einen Unterschied zwischen ner x800 pro und ner XT und das soll schon was heissen ;)

Aehm,
41 zu 32 (http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=2&t=000038&p=17) waere "kaum ein Unterschied" :lol:

Jesus
2004-07-01, 23:17:26
ja toll in 1600x1200 vielleicht,

aber wenn selbst auf 1280x1024 kein unterschied zwischen den beiden Karten ist dann find ich das schon etwas CPU limitiert

btw
Interessant ist, dass die Karte bei höheren Aufösungen nur wenig an Performance einbüst, was darauf schließen läßt, dass hier unser PC ebenso noch ein zweites Limit besitzt, welches das Spiel ausbremst. Dieses CPU-Limit konnten wir in unseren letzten CPU-Tests verifizieren - hier legt FarCry generell heftig zu, wenn eine schnellere CPU verwendet wird.

LovesuckZ
2004-07-01, 23:22:00
Warum testen wir nicht gleich in 640*480...

Jesus
2004-07-01, 23:59:58
sehr witzig.

Uller
2004-07-02, 00:07:49
Bei Half-Life 2 ist die X800XT weit vor der X800 Pro. In jeder Auflösung.
Wird in anderen neuen Spielen ähnlich sein, denke ich doch mal.
http://www.digit-life.com/articles2/radeon/rx800-3.html
oder die anderen Russen:
http://www.xbitlabs.com/articles/video/display/r420-2_12.html

Naja, in Stalker ist schon wieder nicht so viel um...wird sich wohl erst noch zeigen ob die XT die Pro wirklich abhängen kann.
Mir sind auf jeden Fall meine 16-Pipelines schon äußerst an's Herz gewachsen ;D

:cowboy:

q@e
2004-07-02, 00:14:51
Rechnerisch ist die XT ~46% schneller.

Uller
2004-07-02, 07:43:16
Original geschrieben von q@e
Rechnerisch ist die XT ~46% schneller.

Bei älteren Spielen limitiert aber die Bandbreite, hier sind es nur 24% mehr theoretische Leistung.
Und die X800 Pro kann man auch auf 550+ Mhz übertakten, die Bandbreite ist also fast gleich.

@q@e: ich glaube nicht dass du das nicht gewusst hast, aber ich wollte deinen Beitrag nicht einfach so stehen lassen ;)

q@e
2004-07-02, 09:38:29
Ich wollte damit Aussagen, daß die XT unter optimalen Bedingungen bis zu ~46% schneller sein kann. Alles, was darüber ist, sollte einem zu denken geben. Bei allem, was darunter ist, liegt die Limitierung eher nicht an der Pixelebene der GPU.

=)
HL2 habe ich leider noch nirgends kaufen können - weiß also auch nicht, ob und wie da die Flaschenhälse verteilt sind.

Uller
2004-07-02, 10:33:59
Also mehr als 46% Mehrleistung ggü. der Pro habe ich nun wirklich noch nirgendwo gelesen.

Half-Life 2...hoffentlich kommt's bald!

Die Russen haben ja die Leak Version gebencht, weiß Gott ob das im finalen Spiel genauso aussieht. KANN sein, und schlimm fände ich es nicht =)

dildo4u
2004-07-11, 15:49:50
http://216.239.39.104/translate_c?hl=en&ie=UTF-8&oe=UTF-8&langpair=de%7Cen&u=http://www.tweakpc.de/hardware/tests/graka/abit_rx600xt/s05.php&prev=/language_tools

Radeon RX600XT-PCIE , X800 Pro , 9800 XT , 9800 Pro , 9800 , 9600 XT . 9600 Pro , 9600.

# Quake 3 Arena - Demo 001
# Return to Castle Wolfenstein
# Serious Sam SE ver 1.07
# Unreal Tournament 2003 Flyby
# Unreal Tournament 2003 Botmatch
# Unreal Tournament 2004
# Tomb Raider: The Angel of Darkness
# Far Cry
# Codecreatures Benchmark Pro
# 3D Mark 2001 SE
# 3D Mark 2003

Axel
2004-07-11, 16:44:55
Warum übersetzt du eine deutsche Seite ins Englische?

http://www.tweakpc.de/hardware/tests/graka/abit_rx600xt/s01.php

dildo4u
2004-07-12, 18:45:31
http://www.giga.de/index.php?storyid=101905

Sapphire mit neuen Grafikkarten @ Giga HELP

um 21Uhr

"Dabei werden wir nicht nur die beiden neuen X800 Karten ausführlich vorstellen, sondern die komplette neue Radeon Serie von Sapphire. So wird es neben der X800 auch noch eine X600 und X300 Serie geben"

md
2004-07-12, 21:01:35
nicht gerade toll, ein p4 3,06 ist imo zu schwach zum testen ( für diese Karte ).


ich glaube du hast dir den falschen namen im forum verpasst!

Jesus
2004-07-12, 21:12:04
... erst informieren und dann posten ( wie quasar so schön in seiner Sig stehen hatte :)

md
2004-07-12, 21:32:12
ich besitzte keine x800 pro pder x800 xt, aber ich weiss worueber hier diskutiert wird. deine aussage mit dem prozessor ist voelliger schwachsinn!

Jesus
2004-07-12, 21:38:00
ich beziehe mich nur auf Reviews die bei FC eine sehr starke CPU abhängigkeit festgestellt haben und eine solche CPU bei DIESEM SPIEL als zu langsam für die neuesten Karten ansehen, da dort eher die CPU als die Graka limitiert.

hier http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=2&t=000037&p=17

und hier http://hardocp.com/article.html?art=NjMy

aber das ist natürlich auch nur schwachsinn.:asshole:

MarcWessels
2004-07-12, 23:22:46
Original geschrieben von Bonzai
ich besitzte keine x800 pro pder x800 xt, aber ich weiss worueber hier diskutiert wird. deine aussage mit dem prozessor ist voelliger schwachsinn!

Kein Schwachsinn, sondern nur logisch.

deekey777
2004-07-16, 15:55:52
ATI Preps to Offset NVIDIA’s GeForce 6800 GT (http://www.xbitlabs.com/news/video/display/20040716055607.html)

ATI Technologies faced strong competition when NVIDIA Corporation unveiled its GeForce 6800 GT graphics chip earlier this year, but the Markham, Ontario-based graphics company reportedly preps a counter-attack with a new product based on the RADEON X800 XT micro-architecture.

A report over China-based web-site GZeasy.com claims that the new graphics chip from ATI will be called RADEON X800 GT and will be a down-clocked RADEON X800 XT graphics processor with 16 rendering pipelines. The so-called RADEON X800 GT visual processing unit will function at 425MHz and will carry 256MB of GDDR3 memory clocked at 900MHz onboard. Initially the new RADEON X800 product will be offered for systems with AGP 8x port.

Some sources close to ATI expressed doubts that ATI would launch a part with “GT” brand-name.

Earlier ATI offered only two graphics options for the high-end market: ATI RADEON X800 PRO and ATI RADEON X800 XT with 12 and 16 pixel pipelines respectively. While the high-end RADEON X800 XT delivers performance in-line with competing GeForce 6800 Ultra, the RADEON X800 PRO was not as fast as the rivaling GeForce 6800 GT in quite some cases. To oppose NVIDIA’s “GT” part ATI might add a new SKU into its plans.

...

Gast
2004-07-18, 13:58:58
Original geschrieben von Uller
Bei Half-Life 2 ist die X800XT weit vor der X800 Pro. In jeder Auflösung.
Wird in anderen neuen Spielen ähnlich sein, denke ich doch mal.


Die 8 FPS, die ne XT in HL2 schneller als ne Pro ist heissen bei Dir "weit"? Klar, es ist ein Unterschied, aber er hält sich dann doch in überschaubaren Grenzen.

Mills
2004-07-18, 14:14:06
Ahja, echt interessant wie viele hier schon HL2 benchen können... Vielleicht sollte man mal abwarten bis HL2 rauskommt?!
Davon abgesehen ists logisch das die höher getaktete ATI die niedriger getaktete ATI überholt.
[ironie*on]Möglicherweise[ironie*off] sogar nicht nur bei HL2... ;D
Will heissen, viel interessanter als Pro vs. XT ist (wie immer) der Punkt ATI vs. Nvidia.

LovesuckZ
2004-07-18, 15:07:02
Original geschrieben von Gast
Die 8 FPS, die ne XT in HL2 schneller als ne Pro ist heissen bei Dir "weit"? Klar, es ist ein Unterschied, aber er hält sich dann doch in überschaubaren Grenzen.

Theoretisch koennte die XT PE irgendwo zwischen 0 - 45% schneller sein.
Nicht nur der geringere Takt (9%) sondern auch die 4 zusaetzlichen pipelines sorgen fuer Leistung. Und im Gegensatz zur GT <> Ultra lohnt es sich bei ATi dagegen umso mehr die 100€ zusaetzlich zu investieren.

dildo4u
2004-07-19, 13:43:13
http://www.beyond3d.com/reviews/gecube/x800pro/


Gecube X800pro Review auf Beyond 3D

trelkowski
2004-07-20, 18:29:12
Gibt es von den ATI-Board-Partnern eigentlich einen, der 'ne X800 mit Dual-DVI hat bzw. plant? Ich habe mal was von Sapphire gehört, aber das war wohl nur auf die 9800-Reihe bezogen.

Endorphine
2004-07-20, 20:52:24
Original geschrieben von trelkowski
Gibt es von den ATI-Board-Partnern eigentlich einen, der 'ne X800 mit Dual-DVI hat bzw. plant? Ich habe mal was von Sapphire gehört, aber das war wohl nur auf die 9800-Reihe bezogen. Klar, die FireGL V7100/V5100 =)

http://www.ati.com/designpartners/media/images/FireGL_v5100_Board_lrg.jpg

Endorphine
2004-07-20, 21:00:48
Original geschrieben von MarcWessels
Kein Schwachsinn, sondern nur logisch. Logisch ist vor allem, dass man brachliegende Grafikkartenleistung mit AA/AF auslasten kann. Ein Einsatz eines NV4x/R42x ergibt also auch schon bei einem 2,0 GHz P4 Sinn. Diese Karten sind ohnehin nur für Qualitätsmodi zu gebrauchen, ohne AA/AF ist selbst die Vorgängergeneration unterfordert.

Ich frage mich auch, worin der Sinn liegen soll, ohne AA/AF und mit 3,0+ GHz CPU Frameraten von über 100 fps in Benchmarks zu messen. Solcherlei Ergebnisse haben eine geradezu "schwachsinnige" Praxisrelevanz.

trelkowski
2004-07-20, 21:35:06
Original geschrieben von Endorphine
Klar, die FireGL V7100/V5100 =)


Sicher die FireGL - gab es ja schon bei den auf 9700/9800 basierenden Modellen. Allerdings habe ich keine Verwendung für das Grundstück, welches beim Preis dieses Silizium-Schnuckelchens mit enthalten sein muss. :D

Aber ernsthaft: Hat jemand 'ne Ahnung ob es nun X800 Pro/XT Karten (NICHT FIREGL @ Endorphine) mit 2xDVI gibt?

Crushinator
2004-07-21, 08:22:54
Original geschrieben von trelkowski
(...) Aber ernsthaft: Hat jemand 'ne Ahnung ob es nun X800 Pro/XT Karten (NICHT FIREGL @ Endorphine) mit 2xDVI gibt? Zuerst wird's leider nur welche (da auch nur die XT-Versionen) für PCI-E geben. Die AIBs (Kartenhersteller) richten sich z.Z. nämlich ganz nach ATis Referenz (Platinen-)Design, welches z.Z. eben kein Dual-DVI für die AGP-Versionen vorsieht.

Gast
2004-07-23, 20:09:36
http://www.driverheaven.net/reviews/6800andX800XT/index.htm

hier wurde schon mit 4.8er catalyst gebencht! *GEIL*

q@e
2004-07-23, 21:46:17
*NOTE: All optimisations were disabled using the Nvidia drivers; this included tri-linear optimisations. With the ATI drivers it is not possible to disable some optimisations and therefore they are enabled. Whilst this does not provide a true apples to apples comparison between cards it is our opinion that every review product should be tested at the best quality it can provide. It is up to the end user when they have the product to decide on optimisations which suit them. If ATI add an option to their drivers in future revisions we would also choose to disable the optimisations. Therefore it can be assumed that the performance on the 6800 Ultra can be improved over that shown in this review should you require it however this would mean reducing IQ. We suggest you read up on the optimisations which each manufacturer uses before deciding on your final purchase.

GEIL
:down:

Winter[Raven]
2004-07-23, 22:11:09
Original geschrieben von q@e
*NOTE: All optimisations were disabled using the Nvidia drivers; this included tri-linear optimisations. With the ATI drivers it is not possible to disable some optimisations and therefore they are enabled. Whilst this does not provide a true apples to apples comparison between cards it is our opinion that every review product should be tested at the best quality it can provide. It is up to the end user when they have the product to decide on optimisations which suit them. If ATI add an option to their drivers in future revisions we would also choose to disable the optimisations. Therefore it can be assumed that the performance on the 6800 Ultra can be improved over that shown in this review should you require it however this would mean reducing IQ. We suggest you read up on the optimisations which each manufacturer uses before deciding on your final purchase.

GEIL
:down:

Hast du was anderes erwartet? Man vergleicht Äpfel mit Birnen, ich bin begeistert.

Langsamm sollte man ATi zum Hund machen... wie damals Nvidia!

Kann einfach nicht sein, das einer bei solchen Tests bescheißt!

Schade finde ich das man die Benches trotzdem veröffentlich, man weiß ganz genau, dass diese einfach unfair sind, und trotzdem lässt man diese zu ...

Tja, genau diesen Reviewern haben wir die derzeitige Situation zuverdanken.

zeckensack
2004-07-23, 22:15:50
Original geschrieben von Winter[Raven]
Hast du was anderes erwartet? Man vergleicht Äpfel mit Birnen, ich bin begeistert.

Langsamm sollte man ATi zum Hund machen... wie damals Nvidia!

Kann einfach nicht sein, das einer bei solchen Tests bescheißt! [ ] du kennst den Unterschied zwischen ATI und Driverheaven :eyes:

Ack @ Quasar :no:

Gast
2004-07-23, 22:33:06
Auch wenn es OT ist und ich einen Punkt dafür kriegen sollte: Mich würde mal interessieren, ob Driverheaven auch so ein Review posten würde, wenn es mal einen Treiber von nVidia gäbe, der gar kein AA oder AF zuläßt und bei dem alle Optimierungen nicht deaktivierbar sind - ATi müsste natürlich mit 6xAA und 16xAF antreten.

Immerhin lautete die Begründung ja: "[...]it is our opinion that every review product should be tested at the best quality it can provide."

;)

P.S.:
Wer sich jetzt fragt, was das hier für ein Scheiss-Posting ist - fragt euch mal, warum jemand dann so ein Review online stellt?

reunion
2004-07-23, 22:37:47
Original geschrieben von Gast
Auch wenn es OT ist und ich einen Punkt dafür kriegen sollte:

Du bist Gast, du kannst keine Punkte bekommen ;(

zeckensack
2004-07-23, 22:43:58
Ich bin grundsätzlich ebenfalls der Meinung, dass DH sehr "freundlich" zu ATI ist, um nicht das böse b-Wort zu verwenden.

Das ist aber im Grunde auch egal. Man kann das Review auch für sich allein stehend bewerten, ohne die allgemeinen Vorlieben der Autoren kennen zu müssen (oder überhaupt kennen zu wollen). Dann kommt man ebenfalls zu dem Schluss, dass dieser Vergleich unfair ist. Es steht ja drin was sie (falsch) gemacht haben, und dem aufmerksamen und gut informierten Leser sollte das auch dann auffallen, wenn er DH überhaupt nicht kennt, oder wenn es ihm sowieso egal ist wer wen, wann und wie "bevorzugt".

Gast
2004-07-23, 22:46:52
Original geschrieben von Gast
Auch wenn es OT ist und ich einen Punkt dafür kriegen sollte: Mich würde mal interessieren, ob Driverheaven auch so ein Review posten würde, wenn es mal einen Treiber von nVidia gäbe, der gar kein AA oder AF zuläßt und bei dem alle Optimierungen nicht deaktivierbar sind - ATi müsste natürlich mit 6xAA und 16xAF antreten.

Immerhin lautete die Begründung ja: "[...]it is our opinion that every review product should be tested at the best quality it can provide."

;)

P.S.:
Wer sich jetzt fragt, was das hier für ein Scheiss-Posting ist - fragt euch mal, warum jemand dann so ein Review online stellt?

Gute Idee :) Von mir 100 Punkte!

q@e
2004-07-23, 22:48:32
Original geschrieben von reunion
Du bist Gast, du kannst keine Punkte bekommen ;(

Sry, ich war das. Die Mods können das ja eh leicht an meiner IP sehen. Irgendwie vergesse ich ständig, meinen Ersatznick einzugeben...

Gast
2004-07-23, 23:38:55
Original geschrieben von q@e
Sry, ich war das. Die Mods können das ja eh leicht an meiner IP sehen. Irgendwie vergesse ich ständig, meinen Ersatznick einzugeben...

IP sehen ist gut, da im Forum ja die freie Meinung zaehlt!
Das hat was von Akte X*g*

saccus
2004-08-04, 19:19:36
Wisst ihr für ein armen Jungen mit begrenztem Geldbeutel die beste graka für den besten Preis ????Und X800 oder 6800 ???

Mills
2004-08-04, 19:31:24
Begrenzter Geldbeutel? Und da fragst Du ob X800 oder 6800? :jumping:
Wie wärs stattdessen mit ner 9800Pro für 199Tacken... ;)

Hellfire-Torrod
2004-08-04, 19:36:45
Ui, den thread gibbet ja auch noch. na da will ich gleich mal abdampfen: Hab gestern auch endlich meine X800Pro von sapphire erhalten. Bestellt bei VV Computer für 380€ . Eingebaut, treiber druff, und los ging es. War ne Bulk, welche nur in nem kleinem Kartong kahm. hab mich ja wenigstens auf ne Sapphireverpackung für die Vitriene gefreut. nunja...
Jedenfals eingebaut, zum test mal schnell beide 3dmarks laufe gelassen, einmal 22002 im 2001er und einmal 10005 im 03er. Schon beachtlich gegenüber meiner 9800pro! Spiele wie Farcry liefen in 1280x1024 mit 4xaa und 16xaf superflüssig, wobei da noch was ging, da einige details im Spiel nicht ganz hochgeschraubt waren. Alles in allem ne super karte. Besonderheiten sind schon noch zu erwähnen, denn 1.) ist das eine Karte mit Blauem PCb und unglaublichen 1,6ns speichern !!! :o
Für fragen stehe ich gerne bereit. Bilder hätt ich auch noch bei bedarf !
SYS iner sig.



Original geschrieben von saccus
Wisst ihr für ein armen Jungen mit begrenztem Geldbeutel die beste graka für den besten Preis ????Und X800 oder 6800 ???

Hm, vieleicht ne 6800nu für 300€?

saccus
2004-08-04, 20:19:14
es können schon um die 400 sein aber welchen....

Mills
2004-08-04, 20:42:11
Also aus Dir wird man nicht schlau. "Armer Junge mit begrenztem Geldbeutel" der 400 Öre - was ehemals 800DM waren - für ne Grafikkarte ausgeben will. :kratz2:

Bei Benches etc gabs bisher keine Unterschiede. Abheben tun sich nur die Vivo Karten bei denen man i.d.R. die 16 Pipes freischalten kann, die ICE-Q Karten von HIS mit Flüsterkühlung und die TOXIC Karten von Sapphire mit (angeblich) OC-freundlicher Flüsterkühlung. Bei den 6800ern halten sich ebenfalls die allermeisten Hersteller as Referenzplatinen-Layout. Insofern lieber auf Ausstattung, Preis und Verfügbarkeit ;) gucken...

IVN
2004-08-05, 18:20:45
@granitapfel
Toxic is mush better than ICE-Q.Thise cards have 1.6ns memory and a festure named A.P.E.(Automatic performance enhancer) that overclocs the memory from standard 900 MHz to 1050.

Mills
2004-08-05, 18:42:01
Okay. Where have I said something different?
I just pointed out that most of the X800 are same. Only some cards are special
- like the Toxic, ICE-Q etc - these are special, but for different reasons...

IVN
2004-08-05, 19:01:42
OK=)

dildo4u
2004-08-10, 23:11:22
Review:Connect3D Radeon X800 XT Platinum Edition

http://www.trustedreviews.com/article.aspx?art=641

dildo4u
2004-08-19, 19:05:58
Asus Radeon AX 800 Pro und XT im computerbase test

http://www.computerbase.de/artikel/hardware/grafikkarten/asus_radeon_ax_800_pro_xt/1/#einleitung

LovesuckZ
2004-08-19, 19:12:28
Asus Radeon AX 800 Pro und XT im computerbase test
http://www.computerbase.de/artikel/hardware/grafikkarten/asus_radeon_ax_800_pro_xt/1/#einleitung

Das es nochmal einen test ohne den AF Optimierungen gibt :up:
Sehr schoen.

reunion
2004-08-19, 19:19:29
Asus Radeon AX 800 Pro und XT im computerbase test

http://www.computerbase.de/artikel/hardware/grafikkarten/asus_radeon_ax_800_pro_xt/1/#einleitung

Ausgezeichneter Test :up:

StefanV
2004-08-19, 19:22:21
Das es nochmal einen test ohne den AF Optimierungen gibt :up:
Sehr schoen.

Jo, vorallendingen, daß die X800 so oft so viel schneller als die 6800 ist *eg*

LovesuckZ
2004-08-19, 19:24:36
Jo, vorallendingen, daß die X800 so oft so viel schneller als die 6800 ist *eg*

:down: (http://www.computerbase.de/artikel/hardware/grafikkarten/asus_radeon_ax_800_pro_xt/13/#performancerating) <- Du sollst nicht flamen.*

Drueck mal den Daumen

Gast
2004-08-19, 19:25:08
Herr paynlich

was soll das?

Gast
2004-08-19, 19:25:38
:down: (http://www.computerbase.de/artikel/hardware/grafikkarten/asus_radeon_ax_800_pro_xt/13/#performancerating) <- Du sollst nicht flamen.

full ack

dafür MUSS es ein PUNKT geben

Gast
2004-08-19, 19:26:37
*Ich werde mich als Gast benehmen und nicht mehr spammen, jawohl!*

reunion
2004-08-19, 19:30:48
full ack

dafür MUSS es ein PUNKT geben

Naja, man kann es auch übertreiben. Die X800XT liegt bis auf Doom3 in hohen Auflösungen mit AA/AF wofür man eine High-End Graka eigendlich kauft (die anderen Einstellungen sind sowieso irrelevant da man mit beiden karten mehr als genug fps hat) praktisch immer vor der 6800U.

Gast
2004-08-19, 19:34:13
Naja, man kann es auch übertreiben. Die X800XT liegt bis auf Doom3 in hohen Auflösungen mit AA/AF wofür man eine High-End Graka eigendlich kauft (die anderen Einstellungen sind sowieso irrelevant da mit beiden karten mehr als genug fps hat) praktisch immer vor der 6800U.

das bestreitet doch keiner das DIE x800xt wohl die schneller karte is?
man sieht aber sehr schoen wer der P/L sieger ist an dem test
und der geht klar an NVs 6800 GT

mapel110
2004-08-19, 19:35:22
Jo, nach den Benchmarks kann man sich nur eine GT holen. Fazit vom Test völlig korrekt.
bei Farcry sind die fps generell höher als bei doom3, deswegen würde ich den Sieg der 6800er bei doom3 höher bewerten als den Sieg der x800er bei Farcry.

btw hab mir ne MSI 6800 GT bestellt. =)

full ack

dafür MUSS es ein PUNKT geben

Warum soll man einen Punkt dafür geben, wenn für Payne offenbar ein paar siege unter ut2003 für ihn "oft" und "viel schneller" bedeuten?! ist halt seine auffassung, die sicherlich interpretationsbedürftig ist. :)

p.s. falls noch Diskussionsbedarf zu paynes posting besteht, entweder Melden-Button oder PN an einen Mod.

BlueRaven
2004-08-19, 19:37:05
will uns da ASUS veräppeln oder ist es eine andere XT, wo bleibt dieser XT mit diesem Kühler oder wird es überhaupt nicht geben.


http://www.komplett.de/mlf/produkt/bilder/CDS/I248865.jpg




BlueRaven

Gast
2004-08-19, 19:37:28
btw hab mir ne MSI 6800 GT bestellt. =)

ah fein

wir bitten alle um tests :)

knallebumm
2004-08-19, 19:41:31
So wie ich das sehe (aus meinem bescheidenen Betrachtungswinkel), zieht die x800xt immer weg, wenn hohe af zugeschaltet werden, was an atis speziellen af Optimierungen liegt.
Deshalb sind die benches meines Erachtens nach nicht vergleichbar.

Mein Favorit im Moment ist ganz klar die 6800gt. (aber 400€ geb ich für ne Graka nicht aus :) ) Bei der letzten Generation wars noch die 9800pro.

reunion
2004-08-19, 19:45:07
So wie ich das sehe (aus meinem bescheidenen Betrachtungswinkel), zieht die x800xt immer weg, wenn hohe af zugeschaltet werden, was an atis speziellen af Optimierungen liegt.
Deshalb sind die benches meines Erachtens nach nicht vergleichbar.


Sag mal ließt du dir einen Test eigendlich auch durch oder schaust du nur auf die Bilder?
Die AF optimierungen wurden bei beiden Herstellern komplett abgeschalten.
Das die X800XT bei hohem AF wegzieht liegt einfach an der deutlich höheren Füllrate.

knallebumm
2004-08-19, 19:49:44
Das war jetzt nicht auf einen Test bezogen, sondern bezieht sich auf den Gesamteindruck, den ich aus einer Vielzahl von Tests gewonnen habe.

Quasar
2004-08-20, 13:46:38
Das es nochmal einen test ohne den AF Optimierungen gibt :up:
Sehr schoen.
:down:
Das mit den deaktivierten Optimierungen stimmt leider nicht ganz. Zuerst hatte ich vor, alle Karten ohne diese zu testen, habe mir dann aber überlegt, dass das Gros der Leser dies nicht tun wird und so habe ich diese auch an gelassen. Ferner stimmt es, dass sich die Optimierungen in OpenGL nicht abstellen lassen.

MechWOLLIer
2004-08-20, 15:23:40
Also heißt das jetzt, dass der CB Test doch noch mit den aktivierten AF Optimierungen gemacht wurde?

r@w
2004-08-20, 15:33:10
Das mit den deaktivierten Optimierungen stimmt leider nicht ganz. Zuerst hatte ich vor, alle Karten ohne diese zu testen, habe mir dann aber überlegt, dass das Gros der Leser dies nicht tun wird und so habe ich diese auch an gelassen. Ferner stimmt es, dass sich die Optimierungen in OpenGL nicht abstellen lassen.Ähm...

Selbstverständlich läßt sich die Bri-Optimierung unter OpenGL deaktivieren!
Des aniso-Zeugs ist unter OpenGL ohnehin nicht aktiv.

Und schade... wäre doch mal ein Test ohne Optimierungen interessant gewesen.
Hätte man ja auch gegenüberstellen können... und ja ich weiß... wäre glatt die doppelte Arbeit gewesen.

Razor

MannDesAuges
2004-08-20, 16:07:07
Die Einstellungen in den Treibern der Grafikkarten nahmen wir wie folgt vor: Grundsätzlich versuchten wir die maximale Qualität zu erreichen und stellten z.B. bei allen Karten der GeForce-6800-Serie den IQ-Regler auf die Stufe „High Quality”, so dass der optimierte trilineare Filter ausgeschaltet ist. Alle anderen Einstellungen beließen wir beim Standard, der bei der Neuinstallation des Treibers aktiviert ist. Dass der aktuelle ForceWare-Treiber von nVidia schon das Shader-Model 3.0 unterstützt. Bei den ATi-Karten beließen wir ebenfalls die IQ-Einstellungen in den Standardeinstellungen. Sowohl nVidia- wie auch ATi-Grafikkarten sollten so während des ganzen Tests eine vergleichbare Bildqualität liefern.
aus dem Artikel: http://www.computerbase.de/artikel/hardware/grafikkarten/asus_radeon_ax_800_pro_xt/5/#testsystem


Das mit den deaktivierten Optimierungen stimmt leider nicht ganz. Zuerst hatte ich vor, alle Karten ohne diese zu testen, habe mir dann aber überlegt, dass das Gros der Leser dies nicht tun wird und so habe ich diese auch an gelassen. Ferner stimmt es, dass sich die Optimierungen in OpenGL nicht abstellen lassen.
Forumskommentar des Autors aus: http://www.computerbase.de/forum/showpost.php?p=802509&postcount=15


Verstehe ich es richtig, dass der NV40, vereinfacht ausgedrückt, wieder einmal mehr ackern musste als der R420, und die Benches dann mit 8xAF entsprechend ausfielen? :|

LovesuckZ
2004-08-20, 16:13:36
Verstehe ich es richtig, dass der NV40, vereinfacht ausgedrückt, wieder einmal mehr ackern musste als der R420, und die Benches dann mit 8xAF entsprechend ausfielen? :|

Entweder ist das ein Scherz, ein schlechter dazu, oder aber der Autor hat den NV40 mit High Quality (= keine Optimierung) gegen das starkoptimierte von ATi verglichen.
Was soll denn der Mist. Dank solchen unfaehigen Menschen (sry dafuer) muss Nvidia einfach HQ Button aus dem Treiber nehmen :mad:

Quasar
2004-08-20, 16:16:14
Ähm...

Selbstverständlich läßt sich die Bri-Optimierung unter OpenGL deaktivieren!
Des aniso-Zeugs ist unter OpenGL ohnehin nicht aktiv.

Ich glaube, des bezog sich nur auf die ATi-Seite der Medaille. :)

r@w
2004-08-20, 16:22:33
Ich glaube, des bezog sich nur auf die ATi-Seite der Medaille. :)Oki doke!
Ein Mißverständnis...
:weg:

Razor

Mr. Lolman
2004-08-20, 17:15:55
Gibts eigentlich schon ATi vs NV DoomIII Benchmarks mit aktivem Humustweak seitens ATi?

LovesuckZ
2004-08-20, 17:32:11
Gibts eigentlich schon ATi vs NV DoomIII Benchmarks mit aktivem Humustweak seitens ATi?

Ja (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/august/neues_doom_3hotfix_atikarten/)

Jesus
2004-08-20, 17:40:55
veralteter tweak ... der neueste ist vom 10.8.

dildo4u
2004-09-13, 17:00:01
Sapphire Radeon X800 XT ViVo Beyond3d Review

http://www.beyond3d.com/reviews/sapphire/x800xt/

Tarkin
2004-09-19, 12:20:44
http://www.driverheaven.net/reviews/PNY/index.htm

Forceware 66.31 WHQL
Catalyst 4.9 WHQL

getestet wurden:

Colin McRae Rally 2005 (Demo)
Thief 3
Ground Control 2
Medal Of Honour: Pacific Assault (Demo)
Neocron2 : Dome of New York
Source Benchmark
Doom3
Shellshock Nam’67
Tribes Vengeance (Demo)

... sehr aufschlussreiches Review ;)

Quasar
2004-09-19, 12:42:06
Bis auf die weitere Untermauerung der Tatsache, daß nV schleunigst Filter@Scanout zumindest in 1600 abstellen sollte und daß die X800 XTPE in einigen Games ihre 30% Mehrtakt umsetzen kann, kann ich da nichts erkennen.

Hilfst du mir weiter?

dildo4u
2004-09-19, 12:47:17
Und warum bitte nehem sie bei den Medal of Hoinor Benches auch mit AA und Anios mit rein wenn sie selber festgestellt haben das es bei der ATI karte nicht funzt.?

Quasar
2004-09-19, 12:49:44
Auf der GF funzt's auch nicht, die kriegt aber trotzdem den Performance-Hit mit. IMO hätten sie das deutlicher rausstellen sollen, ja.

StefanV
2004-09-19, 12:52:37
http://www.driverheaven.net/reviews/PNY/index.htm

Forceware 66.31 WHQL
Catalyst 4.9 WHQL

getestet wurden:

Colin McRae Rally 2005 (Demo)
Thief 3
Ground Control 2
Medal Of Honour: Pacific Assault (Demo)
Neocron2 : Dome of New York
Source Benchmark
Doom3
Shellshock Nam’67
Tribes Vengeance (Demo)

... sehr aufschlussreiches Review ;)
Bah, ist der Test 'unschön'.

Hab mir auch nur die ersten beiden Seiten antun können, da mich diese animierten Flash Dinges da so genervt haben...

Tarkin
2004-09-19, 17:19:54
Bah, ist der Test 'unschön'.

Hab mir auch nur die ersten beiden Seiten antun können, da mich diese animierten Flash Dinges da so genervt haben...


trotzdem zeigt sich hier deutlich, dass nvidia im high-end bereich nur bei dumm3 punkten kann bzw. nur für dumm3 "optimiert" ... nur leider wird nvidias rechnung nicht ganz aufgehn, da HL2 mit CS:source sicher mehr gamer begeistern kann als dumm3

mrdigital
2004-09-19, 18:30:09
was bistn du für ein depp? ich hab auch schon öfter "dumm3" geschrieben wenn ich mich nicht irre.... und JA, dumm3 ist leider meiner meinung nach ziemlich shice... fad, öde, langweilig, linear, unlustig, unspektakulär, nervig doof, elendig langsam, top1 nvidiot spiel weils das einzige spiel ist, wo die 6800ultra sehr gute leistung zeigt... udn wieso wissen wir auch alle: weil dumm3 auf nvidia hardware entwickelt wurde und nvidia alles menschen mögliche getan hat, damit dumm3 am schnellsten auf nv läuft

... und da bin ich "leider" nicht allein mit meiner meinung. tut mir leid mister gast-nvidiot.

Das ist ein Punkt.

HockleXX
2004-09-19, 19:21:05
Als ATi User muss ich sagen - Mir gefällt Doom 3. Rein von der Optik und vom MP. Da kommts mir auch ned auf NV oder ATi an. Hauptsache Spielspass :cop:

mrdigital
2004-09-19, 20:19:16
Bitte geht doch nicht ständig auf ein "Proll-Posting" ein, ob das nun von einem Gast oder von einem Reg stammt. Es reicht doch, wenn ich das schon komentieren muss, da müssen dann nicht noch 10 andere draufrumreiten, damit hat der Troll doch genau das, was er haben will. Genau das selbe mit den "Gast" Postings, ob die nun von einem Reg oder nicht sind, ist doch wurscht, das bringt niemand was, wenn man an dieser Stelle daran rumdiskutiert.

SamLombardo
2004-09-19, 20:26:09
Dazu brauchst du dir nur die Videos von HL2 anzusehen, um zu wissen, dass HL2 deutlich mehr in Sachen Gameplay bieten wird als Doom3.

Naja die Doom3 Videos waren auch erste Sahne. Kinnlade ahoi :)
HL2 könnte genauso eine Enttäuschung werden, je höher die Erwartung desto stärker die Enttäuschung hinterher. (PS: Ich hoffe natürlich auf ein tolles Spiel, nach den ganzen Querelen und Kundenverarsche bin ich aber skeptisch - aber hoffe wirklich, dass diese Skepsis unbegründet ist :) )

SamLombardo
2004-09-19, 21:30:32
Es spricht doch keiner die leistung der xtPe ab.
Aber warum Wird der Nv40 so Nieder gemacht nur weil er in Doom3 so "gut" ist?
Kann oder Können die FanATIker nicht damit leben Halt dieS eine Game mal an NV abzugeben? (ich denke nicht)

So in etwa seh ich das auch. Seit NV mit dem NV40 einen leistungsstarken Chip herausgebracht hat, das Ati Pendant auch mal deutlich hintersich lässt ist imo eine deutliche Aggressionssteigerung der FanAtiker zu verzeichnen. (bezieht sich jetzt aber nicht speziell auf MikBach)

MikBach
2004-09-19, 21:43:02
So in etwa seh ich das auch. Seit NV mit dem NV40 einen leistungsstarken Chip herausgebracht hat, das Ati Pendant auch mal deutlich hintersich lässt ist imo eine deutliche Aggressionssteigerung der FanAtiker zu verzeichnen. (bezieht sich jetzt aber nicht speziell auf MikBach)
Nichts mit deutlich. Siehe meinen Link zu Computerbase. ;)
edit:
Da hier mal wieder heftig aufgeräumt wurde ;D
hier der Link zu Computerbase:
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/grafikkartenperformance_doom_3/4/#1024x768_pixel
Nächste Seite die Ergebnisse in 1280x1024.

SamLombardo
2004-09-20, 10:04:57
Nichts mit deutlich. Siehe meinen Link zu Computerbase. ;)

Doch mehr als deutlich... Siehe aktuellen Test von ZD net. Die 6800GT führt mit mehr als 30 Prozent in der 1024x768 Auflösung, sorry aber ist so.

http://www.zdnet.de/enterprise/client/0,39023248,39125640-7,00.htm

MikBach
2004-09-20, 13:06:26
Doch mehr als deutlich... Siehe aktuellen Test von ZD net. Die 6800GT führt mit mehr als 30 Prozent in der 1024x768 Auflösung, sorry aber ist so.

http://www.zdnet.de/enterprise/client/0,39023248,39125640-7,00.htm
Akzeptiert. Wenn wir uns die GT und die PRO ansehen.
Aber schau mal in den Titel deines Beitrags. ;)
"Re: X800 XT PE vs. 6800 Ultra - mit aktuellen Treibern"
Darauf habe ich mich bezogen. Aber lass uns mit der Doom3 Diskussion aufhören bis ATI den neuen Treiber liefern kann. Laut ATI sollten ihre Karten noch zulegen. Dann ist die Diskussion wieder sinnvoller. Hat ja in diesem Thread eh nichts verloren.

Strolchi
2004-09-20, 20:50:01
Doch mehr als deutlich... Siehe aktuellen Test von ZD net. Die 6800GT führt mit mehr als 30 Prozent in der 1024x768 Auflösung, sorry aber ist so.

http://www.zdnet.de/enterprise/client/0,39023248,39125640-7,00.htm

Das sieht dann mit dem 4.9er schon wieder ganz anders aus...
+ ca. 15 FPS zum 4.9er Beta auf XT-PE.
Haben den Treiber nochmal mächtig auf Doom optimiert.

Grüsse Strolchi

deLuxX`
2004-09-20, 21:15:05
Guckt euch Screenshots oder das Spiel selber an. Da sieht man das ATI heftige Filtertricks anwendet und das nicht wirklich schön aussieht. Ich finde man sollte die BQ auf einer Ebene haben(sofern möglich) und dann urteilen. Davon abgeshen das D³ nur ein Spiel unter vielen ist. ;)

SamLombardo
2004-09-20, 21:24:39
Das sieht dann mit dem 4.9er schon wieder ganz anders aus...
+ ca. 15 FPS zum 4.9er Beta auf XT-PE.
Haben den Treiber nochmal mächtig auf Doom optimiert.

Grüsse Strolchi

Hm? Im verlinkten Test sieht es so aus, als ob der 4.9er überhaupt nichts bringt, ehr noch weniger fps als der 4.8er.

mfg Sam

Gast
2004-09-20, 21:36:35
Hm? Im verlinkten Test sieht es so aus, als ob der 4.9er überhaupt nichts bringt, ehr noch weniger fps als der 4.8er.

mfg Sam

Vielleicht eine andere Timedemo?
Wär natürlich lustig wenn ATI nur auf die originale Timedemo optimiert :D

MikBach
2004-09-20, 21:41:46
Guckt euch Screenshots oder das Spiel selber an. Da sieht man das ATI heftige Filtertricks anwendet und das nicht wirklich schön aussieht. Ich finde man sollte die BQ auf einer Ebene haben(sofern möglich) und dann urteilen. Davon abgeshen das D³ nur ein Spiel unter vielen ist. ;)
Wo kann man das von dir behauptete "bewundern"?
Kannst du die Screens posten bzw. verlinken?

Strolchi
2004-09-20, 21:43:16
Hm? Im verlinkten Test sieht es so aus, als ob der 4.9er überhaupt nichts bringt, ehr noch weniger fps als der 4.8er.

mfg Sam


Hab mir nur die Grafik angeschaut und behaupte jetzt einfach mal das Garantiert nicht der offizielle 4.9er gebencht wurde.

Meinte die Mehrleistung bezogen auf den angeblichen Doom3-Booster 4.9BETA.

Gebencht hab ich mit ner XT-PE.
Das Verhältniss zur Pro sollte aber gleich bleiben und auch die wird von dem neuen Treiber wohl ähnlich profitieren können.

Zur Bildquali kann ich nix sagen weil nur die Timedemo lief.Und wieder erwarten trotz 4/8 Filtern sehr gut.

Grüsse Strolchi

deLuxX`
2004-09-20, 21:43:31
Weiss zwar nicht mehr wo ich die gesehn hab(glaub bei anandtech) aber ich werd mich mal auf die suche machen :)

MikBach
2004-09-20, 21:48:43
Vielleicht eine andere Timedemo?
Wär natürlich lustig wenn ATI nur auf die originale Timedemo optimiert :D
Da hätte aber ATI von Nvidia gelernt. ;) (im negativen Sinne)
Deswegen sind CustomTimedemos zu bevorzugen.

deLuxX`
2004-09-20, 22:09:25
Hier der Link zu den screenies:
http://techreport.com/etc/2004q3/ati-doom3/image.x?img=x800-cat49-default.png

MikBach
2004-09-20, 22:14:27
Hier der Link zu den screenies:
http://techreport.com/etc/2004q3/ati-doom3/image.x?img=x800-cat49-default.png
Alt.
Das ist schon PC-Geschichte. :D
Mit dem Cat4.9 ist die BQ sehr gut.

deLuxX`
2004-09-20, 22:18:20
Ups, da hab ich gepennt :hammer: ;D

Vergebt mir :massa:

.....ich muss weg :ujump2:

Strolchi
2004-09-20, 22:27:12
Hier der Link zu den screenies:
http://techreport.com/etc/2004q3/ati-doom3/image.x?img=x800-cat49-default.png

Trau nix und niemandem was Du nicht selber gesehen oder probiert hast.

Der Treiber bei dem Screenshot steht nie und nimmer auf High.
Es ist überhaupt keine Kantenglättung aktiv.
Ich habe genau diese Scene mit ner 6800er und ner X800 auf dem selben Bildschirm hargenau betrachtet.

Treiber waren der 4.9er Beta und der 66.00.
Die Karten namen sich in der Bildqualität überhaupt gar nix!
Im Gegenteil.Meiner Meinung nach musste ich sogar auf der Ultra 4 Fach aa wählen um an Die Kantenglättung der Ati bei 2fach zu kommen.
(Mehr als 2 Fach ging auf der ATI wegen der Performance nicht.Da war einfach ende)

Grüsse Strolchi

deLuxX`
2004-09-20, 22:34:00
Les mal ein Post über meinem :udevil:

dildo4u
2005-07-19, 00:28:29
Sapphire RADEON X800 XL 512MB Review auf firingsquad

http://www.firingsquad.com/hardware/sapphire_radeon_x800_xl_512mb/

StefanV
2005-07-19, 00:32:37
Warum haben die Dödl nicht den Kühler mal entfernt und 'ne x850XT daneben gelegt?! :|

Naja, immerhin kann man erahnen, das dieses Teil 16 Chips haben muss...

Mills
2005-07-19, 01:29:42
Sapphire RADEON X800 XL 512MB Review auf firingsquad

http://www.firingsquad.com/hardware/sapphire_radeon_x800_xl_512mb/
Was die Hersteller bloss treiben... 512MB machen auf ner XL null Sinn. :|

MadManniMan
2005-07-19, 03:23:18
Was die Hersteller bloss treiben... 512MB machen auf ner XL null Sinn. :|

Hm, dafür würde ich jetzt gern mal differenzierter ausgewertete Benches vor mir sehen.

Es gibt einige speicherintensive Apps, die doch merklich auf den vergrößerten Speicher anschlagen und die Karte mit ihren 400/500 MHz auf das Niveau einer XT-PE hieven - und diese taktet mit 540/590 MHz!

Ich wette, daß beide Frameratenverläufe sich dennoch nicht gleichen - sondern daß die XT-PE im Mittel über der XL mit 512MB zu bleiben scheint, wohl aber mit Einbrüchen zu kämpfen hat. Damit wäre das bessere Zocken mit der XL gegeben.

Kann jemand diese Theorie bestätigen?

Hellfire-Torrod
2005-07-19, 03:29:25
Hm, dafür würde ich jetzt gern mal differenzierter ausgewertete Benches vor mir sehen.

Es gibt einige speicherintensive Apps, die doch merklich auf den vergrößerten Speicher anschlagen und die Karte mit ihren 400/500 MHz auf das Niveau einer XT-PE hieven - und diese taktet mit 540/590 MHz!

Ich wette, daß beide Frameratenverläufe sich dennoch nicht gleichen - sondern daß die XT-PE im Mittel über der XL mit 512MB zu bleiben scheint, wohl aber mit Einbrüchen zu kämpfen hat. Damit wäre das bessere Zocken mit der XL gegeben.

Kann jemand diese Theorie bestätigen?

hier
http://www.ati-news.de/Bilder/Sapphire/X800-XL-512/Bench/Farcry/Regulator/1280_4x_8x.png

mehr oder weniger

Gast
2005-07-19, 03:47:25
hier
http://www.ati-news.de/Bilder/Sapphire/X800-XL-512/Bench/Farcry/Regulator/1280_4x_8x.png

mehr oder weniger

völlig unrealistisch,atis sind dort viel schneller

MadManniMan
2005-07-19, 04:26:47
hier
(...)
mehr oder weniger

Danke, aber es ging ja nicht nur um die Theorie, daß eine 512MB XL einer 256MB XT-PE ebenbürtig ist, was die Average FPS angeht, sondern vor allem im Slowdownbereich überlegen scheint.

Gast
2005-07-19, 18:41:16
Was die Hersteller bloss treiben... 512MB machen auf ner XL null Sinn. :|


im prinzip kann jede karte von mehr speicher profitieren, sofern hoch aufgelöste texturen zum einsatz kommen. diese brauchen nämlich "nur" mehr speicherplatz und verlangsamen das restliche rendering in keinster weise.

Coda
2005-07-20, 00:33:20
völlig unrealistisch,atis sind dort viel schnellerIndoor nicht, da hilft nVIDIA die doppelte Z-Only-Füllrate bei den Schatten.

http://www.ati-news.de/Bilder/Sapphire/X800-XL-512/Bench/Farcry/Research/1024.png

Outdoor schon.

Gast
2005-07-20, 02:27:30
Sapphire RADEON X800 XL 512MB Review auf firingsquad

http://www.firingsquad.com/hardware/sapphire_radeon_x800_xl_512mb/

irgendwie kommt mir der 7800gts bench bei bf2 voll unrealistisch vor
die hat doch nimma doppelte leistung oder hab ich da was verpennt?

zur 512xl:
die slowdowns wären wirklich ma interessant, jedoch gibts halt keine games (ausser fear? ) um die 512 auszunutzen zu können, wobei ich dies bei bf2 vermutet hätte
und wenn die games halt kommen ist sie widerum zu langsam, wie halt damals die 9800pro/xt