PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : [1] 2 3 4 5 6 7 8 9 10

StefanV
2005-10-05, 14:25:22
Das erste (P)Review ist online :devil:
hier (http://www.3dcenter.org/artikel/2005/10-05_a.php)



Hier mal eine mittlere Liste der aktuell erschienenen:
XBit (http://www.xbitlabs.com/articles/video/display/radeon-x1000.html) (e)
Anandtech (http://www.anandtech.com/video/showdoc.aspx?i=2552&p=1) (e)
Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/2/) (d)

Tech Report (http://techreport.com/reviews/2005q4/radeon-x1000/index.x) (e)
Beyond 3D (http://www.beyond3d.com/reviews/ati/r520/) (e)



noch mehr technik-infos zum r520 hier:

http://graphics.stanford.edu/~mhouston/public_talks/R520-mhouston.pdf
http://www.gpgpu.org/forums/viewtopic.php?t=1545&start=0&postdays=0&postorder=asc&highlight=
http://graphics.stanford.edu/papers/clawhmmer/hmmer.pdf

viel lesestoff für technik-freaks :D


X1800XL AIW (P)Reviews:
Bjorn3D (http://www.bjorn3d.com/read.php?cID=856)
HotHardware (http://www.hothardware.com/viewarticle.aspx?articleid=742&cid=2)
Motherboards.Org (http://www.motherboards.org/reviews/hardware/1562_1.html)
Noticia Over Adiction (http://www.overadiction.cl/index.php?showtopic=1623)
Viper Lair (http://www.viperlair.com/reviews/video/ati/r5xx/aiw1800xl/)
thx an Deekay777 für die Zusammenstellung

BodyLove
2005-10-05, 14:26:45
hehe, guter Witz. :rolleyes: ;(

deekey777
2005-10-05, 14:27:49
Ich bin dafür, daß dieser Thread einen Neuanfang markiert und zum offiziellen (P)Review-Thread wird.
PS: SP, der Artikel ist schon vermerkt worden.

€: Wäre es möglich, hier nicht zu spammen?

BodyLove
2005-10-05, 14:35:41
komisch, in den letzten Jahren war ja THG immer einer der ersten, der es nicht schaffte bis zur vollen Std. warten zu können. Heute ist bis jetzt nichts erschienen.

up¦²
2005-10-05, 14:40:04
ok, dekey777, zum Thema :wink:



http://review.gzeasy.com/graphics/2005-10-05/graphics_3491.html

*seeehr viel geduld haben mode* bein laden einschalten (kann jemand interessante info backen :|

Ronny145
2005-10-05, 14:47:15
ok, dekey777, zum Thema :wink:



http://review.gzeasy.com/graphics/2005-10-05/graphics_3491.html

*seeehr viel geduld haben mode* bein laden einschalten (kann jemand interessante info backen :|


Was steht dort schönes? Da geht gar nix bei der Seite im Moment.

Botcruscher
2005-10-05, 14:49:39
Was steht dort schönes? Da geht gar nix bei der Seite im Moment.


Die gayt, nur etwas laaaaangsam. ;)

Was da steht kann ich dir aber auch nicht sagen da mir asiatische Schriftzeichen nicht bekannt sind. :biggrin:

Odal
2005-10-05, 14:49:46
du musst nen paar mal reload druecken die seite braucht etwas..lesen kann ich da auch nix..is chinesisch oder japanisch
ausserdem steht da was von x1000 :mad
ich will endlich reviews sehen

SKYNET
2005-10-05, 14:50:38
Das erste (P)Review ist online :devil:
hier (http://www.3dcenter.org/artikel/2005/10-05_a.php)


Nvidia bietet mit dem G70 die überlegene arithmetische Leistung – sofern man sie entfalten kann, hat der R520 keine Chance.


dieser satz geht runter wie öl!

up¦²
2005-10-05, 14:51:12
Zack: :smile:

http://www.msi.com.tw/images/news_img/RX1300PRO_1.jpg

MSI unveils its very first 90nm graphics card "MSI RX1300PRO-TD256E"

http://www.msi.com.tw/html/newsrelease/product_news/2005_1005_RX1300.htm

Mr. Lolman
2005-10-05, 14:51:13
http://www.gzeasy.com/Articlephoto/r520/arts/area_af.png

up¦²
2005-10-05, 14:54:47
MSI RX1300PRO-TD256E comes with full support for ATi's multi-GPU system - " Crossfire™ ". By combining with another CrossFire™ master card and compatible motherboard, user could get almost doubled 3D performance.

Nanu: der x1300 also auch :|
http://www.msi.com.tw/html/newsrelease/product_news/2005_1005_RX1300.htm

Mr.Y
2005-10-05, 14:55:39
dieser satz geht runter wie öl!
Irgendwie mag ich deine Kommentare. Du scheinst nur das zu lesen, was du magst, kannst aber die Welt nicht mehr begreifen, dass der R520 wohl doch nicht so scheisse sein soll.
Zum Thema: Mal guggen was sich ATi so einfallen lassen hat. Besonders die Ergebnisse der X1300 sind positiv zu bewerten.

Horimoto
2005-10-05, 14:56:57
Ich hoffe die XL wird was. Die Leistung der 7800GT mit besserer IQ und den features und sie ist am 10. gekauft

HajottV
2005-10-05, 14:58:11
Irgendwie mag ich deine Kommentare. Du scheinst nur das zu lesen, was du magst, kannst aber die Welt nicht mehr begreifen, dass der R520 wohl doch nicht so scheisse sein soll.
Zum Thema: Mal guggen was sich ATi so einfallen lassen hat. Besonders die Ergebnisse der X1300 sind positiv zu bewerten.

Ja, traurig. Nuja, gibt ja für sowas die ignore Funktion. :D

Gruß

Jörg

Spasstiger
2005-10-05, 14:58:17
Irgendwie mag ich deine Kommentare. Du scheinst nur das zu lesen, was du magst, kannst aber die Welt nicht mehr begreifen, dass der R520 wohl doch nicht so scheisse sein soll.

Nein, ich glaube Skynet hat seine ganze eigene Einstellung zur Welt und er begreift sie sehr wohl. Und sich selbst hält er für den Mittelpunkt der Welt ;). So ist er halt.

deekey777
2005-10-05, 14:58:43
http://www.beyond3d.com/reviews/ati/r520/ :biggrin:

Black-Scorpion
2005-10-05, 14:59:17
dieser satz geht runter wie öl!
Der auch.

Was den anisotropen Filter angeht, hat ATI Nvidia schlicht blamiert

Wer will findet immer etwas was ihm in den Kram passt. *kopfschüttel*

Blaze
2005-10-05, 14:59:18
http://www.beyond3d.com/review/ati/r520/ :biggrin:

Not Found
The requested URL /review/ati/r520/ was not found on this server.

Additionally, a 404 Not Found error was encountered while trying to use an ErrorDocument to handle the request.

:upara:

BodyLove
2005-10-05, 14:59:52
ist doch schon 15Uhr?!? Wo bleiben die Reviews?

€:http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/

Botcruscher
2005-10-05, 15:00:07
http://www.beyond3d.com/review/ati/r520/ :biggrin:

The requested URL /review/ati/r520/ was not found on this server.

Blaze
2005-10-05, 15:00:23
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/

:D

MartinRiggs
2005-10-05, 15:01:31
ich glaub beyond3d hat es grade zerrissen.
URL noch found, wenn man über die startseite geht ist auch essig.

BodyLove
2005-10-05, 15:01:42
321Mio Transistoren?!? Ohh my godness.

up¦²
2005-10-05, 15:01:51
... :biggrin:

BTW: schon bekannt?
ATI Radeon Series Graphics Drivers 8.17 (http://www.msi.com.tw/program/support/driver/dvr/spt_dvr_ten.php?UID=359&kind=2)

jasihasi
2005-10-05, 15:01:59
Jupp, CB.

SKYNET
2005-10-05, 15:02:14
Der auch.



Wer will findet immer etwas was ihm in den Kram passt. *kopfschüttel*


tja, bei benchmarks zählt nur der balken, keine 0-8-15 user liest den text, der guckt auf den balken, NV ist oben --> gekauft! =) :cool:

Blaze
2005-10-05, 15:03:10
hahaha sie is langsamer als die GTX ;D :up:

Edit: Aber auch nur ohne AA/AF ... mit sind beide gleich auf ;)

Edit2: Und sie is lauter...und heisser...und und und :D

zeckensack
2005-10-05, 15:04:11
Tech Report (http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=1)

captainsangria
2005-10-05, 15:04:44
http://www.theinquirer.net/?article=26720

captainsangria
2005-10-05, 15:05:31
http://www.hardocp.com/article.html?art=ODIy

Blaire
2005-10-05, 15:06:29
hahaha sie is langsamer als die GTX ;D :up:

Edit: Aber auch nur ohne AA/AF ... mit sind beide gleich auf ;)

Nach den Benchmarks auf computerbase.de zu urteilen und wenn man die ganzen Verspätungen hinzurechnet, eine auf den ersten Blick Enttäuschung.

thade
2005-10-05, 15:06:40
hahaha sie is langsamer als die GTX ;D :up:

Edit: Aber auch nur ohne AA/AF ... mit sind beide gleich auf ;)

Edit2: Und sie is lauter...und heisser...und und und :D

ja in den unwichtigen Spielen ist sie lahmer....

Spasstiger
2005-10-05, 15:07:21
http://www.heise.de/newsticker/meldung/64592

Blaze
2005-10-05, 15:09:27
Nach den Benchmarks auf computerbase.de zu urteilen und wenn man die ganzen Verspätungen hinzurechnet, eine auf den ersten Blick Enttäuschung.

Seh ich auch so...

Botcruscher
2005-10-05, 15:13:55
Seh ich auch so...

Ja etwas "schwach". Bessonders der Stromverbrauch und die Lautstärke, beim Rest schauen wir mal was neue Treiber bringen.
Hauptsache der Markt wird richtig aufgemischt und man bekommt viel Leistung zu einem guten Preis. Ob Ati oder NV ist mir da egal.

SKYNET
2005-10-05, 15:14:08
ja in den unwichtigen Spielen ist sie lahmer....


umnd in den games wo viel spielkrams mit shadern & co ist, lahmen die karten wie sonstwas, siehe riddick und D3. ;D



hahaha sie is langsamer als die GTX ;D :up:

Edit: Aber auch nur ohne AA/AF ... mit sind beide gleich auf ;)

Edit2: Und sie is lauter...und heisser...und und und :D

jupp, aber sagte ich das alles nicht schon vor nen epaar wochen? :|

Horimoto
2005-10-05, 15:17:17
Die XT ist laut techreport teols zielich viel schneller.........
Die XL ist aber EXTREM weit hinten, das is ne Entäuschung für mich. Aber man weiss ja noch nix über Übertaktbarkeit

Blaze
2005-10-05, 15:17:38
jupp, aber sagte ich das alles nicht schon vor nen epaar wochen? :|

nicht nur du ;)

GTX: 129W Idle
X1800XT: 173W Idle

put this together with some Intel CPU and you don't need a heater in your house ;D

Spasstiger
2005-10-05, 15:19:00
umnd in den games wo viel spielkrams mit shadern & co ist, lahmen die karten wie sonstwas, siehe riddick und D3. ;D

Du redest von OpenGL-Spielen. Soviel Shader-Krams ist da nicht drin, so gut wie alle Effekte aus Doom 3 und Riddick lassen sich auch genauso mit DX7-Hardware umsetzen. Nur Hitzeflimmern und der Glaseffekt in Doom 3 sind echte Shadereffekte.

In Half-Life 2 siehts ziemlich nach Gleichstand aus (CPU-Limitierung?). In Fear geht die X1800 XT tatsächlich so ab, wie es laut den Folien angekündigt wurde (http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=11 ).
Nur gegen zwei 7800 GTX hat eine X1800 XT nie eine Chance.

James Ryan
2005-10-05, 15:19:27
Nach den Benchmarks auf computerbase.de zu urteilen und wenn man die ganzen Verspätungen hinzurechnet, eine auf den ersten Blick Enttäuschung.

Finde ich absolut nicht!
Allein das HQ-AF zusammen mit HDR+AA, dabei noch die Perfomance mit AA + AF läst sie für mich im Moment eindeutig besser dastehen als eine GTX! :eek:

MfG :cool:

Peleus1
2005-10-05, 15:19:48
Nach den Benchmarks auf computerbase.de zu urteilen und wenn man die ganzen Verspätungen hinzurechnet, eine auf den ersten Blick Enttäuschung.
Also wenn man guru3d.com und computerbase.de nimmt, dann ist die Karte indem Sinne, eine sehr harte Entäuschung.
Gleich schnell hätte sie min. sein müssen, aber nun hat NV das Rennen gemacht. Aber momentan warte ich eh mal auf neue Treiber, die das evtl. noch verbessern.

Ansonsten, momentan imo nen Flopp.

Super Grobi
2005-10-05, 15:19:55
nicht nur du ;)

GTX: 129W Idle
X1800XT: 173W Idle

put this together with some Intel CPU and you don't need a heater in your house ;D

Da wird mir schlecht! Da braucht man ja ein 550 Watt NT.

SG

Mr. Lolman
2005-10-05, 15:20:01
umnd in den games wo viel spielkrams mit shadern & co ist, lahmen die karten wie sonstwas, siehe riddick und D3. ;D


Eher umgekehrt. Dass bei D³ und Riddick nicht die Shaderleistung limitiert haben wir schon einmal diskutiert. Und bei Farcry und Splintercell sind sie weit vorne...

Demirug
2005-10-05, 15:20:03
So jetzt darf ich auch:

Die Entwicklerseele schreit gequält auf weil ATI aufgrund einer Definitionslücke in der DX9.0 Spec keinen echten SM3 Chip bauen musste und trotzdem SM3 drauf kleben darf. Jetzt habe ich schon drei SM3 Varianten am Hals. Um es auf den Punkt zu bringen das Ding kann keine Vertex-Texturen. Dann muss eben doch wieder die CPU ran für die ganzen Physikeffekte die man damit hätte auf die GPU verlagern können. Gemerkt hat das btw scheinbar kaum einer der Reviewer. Bisher hat scheinbar nur Dave Baumann etwas dazu geschrieben. Habe aber noch nicht in alle Reviews reingeschaut.

thade
2005-10-05, 15:21:39
naja für besseres AF nehm ich gerne 1,2 Frames weniger in Kauf.

SKYNET
2005-10-05, 15:22:19
Du redest von OpenGL-Spielen. Soviel Shader-Krams ist da nicht drin, so gut wie alle Effekte aus Doom 3 und Riddick lassen sich auch genauso mit DX7-Hardware umsetzen. Nur Hitzeflimmern und der Glaseffekt in Doom 3 sind echte Shadereffekte.

In Half-Life 2 siehts ziemlich nach Gleichstand aus (CPU-Limitierung?). In Fear geht die X1800 XT tatsächlich so ab, wie es laut den Folien angekündigt wurde (http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=11 ).
Nur gegen zwei 7800 GTX hat eine X1800 XT nie eine Chance.


die minimum frames auf der XT sind ja wohl nen sitz... was bringen einem viele frams im schnitt, wenn die minimum frames unspielbar sind? :|

Mr. Lolman
2005-10-05, 15:22:25
Interessant ist auch die AAA Qualität: http://www.hardocp.com/image.html?image=MTEyODI4MDE0MEFCVGlYSnBoRUNfOF80X2wuanBn :eek:

/edit: http://www.hardocp.com/image.html?image=MTEyODI4MDE0MEFCVGlYSnBoRUNfOF81X2wuanBn

Spasstiger
2005-10-05, 15:22:33
Da wird mir schlecht! Da braucht man ja ein 550 Watt NT.

SG

Wieso braucht man für einen Rechner, der 173 Watt im Idle zieht ein 550 Watt NT? 350 Watt dürften reichen.

Spasstiger
2005-10-05, 15:23:10
die minimum frames auf der XT sind ja wohl nen sitz... was bringen einem viele frams im schnitt, wenn die minimum frames unspielbar sind? :|

Das stimmt. Allerdings sind die minimalen fps bei Nvidia auch nicht berauschend, zumindest ohne SLI.

Mr. Lolman
2005-10-05, 15:23:35
die minimum frames auf der XT sind ja wohl nen sitz... was bringen einem viele frams im schnitt, wenn die minimum frames unspielbar sind? :|

51fps? :confused:

/edit: achso, du meinst FEAR...

SKYNET
2005-10-05, 15:23:57
Also wenn man guru3d.com und computerbase.de nimmt, dann ist die Karte indem Sinne, eine sehr harte Entäuschung.
Gleich schnell hätte sie min. sein müssen, aber nun hat NV das Rennen gemacht. Aber momentan warte ich eh mal auf neue Treiber, die das evtl. noch verbessern.

Ansonsten, momentan imo nen Flopp.


zum thema neuer treiber, die tester bekommen demnächst (so sagt man) 512MB karten mit neuem treiber... was glaubst du was die GTX mit 512MB und dem neuen treiber mit der X188XT macht? :biggrin:

SKYNET
2005-10-05, 15:25:01
So jetzt darf ich auch:

Die Entwicklerseele schreit gequält auf weil ATI aufgrund einer Definitionslücke in der DX9.0 Spec keinen echten SM3 Chip bauen musste und trotzdem SM3 drauf kleben darf. Jetzt habe ich schon drei SM3 Varianten am Hals. Um es auf den Punkt zu bringen das Ding kann keine Vertex-Texturen. Dann muss eben doch wieder die CPU ran für die ganzen Physikeffekte die man damit hätte auf die GPU verlagern können. Gemerkt hat das btw scheinbar kaum einer der Reviewer. Bisher hat scheinbar nur Dave Baumann etwas dazu geschrieben. Habe aber noch nicht in alle Reviews reingeschaut.


kann es sein, das bisher nur NV die vollen SM3.0 spezifikationen erfüllt?

Blaze
2005-10-05, 15:25:24
Wieso braucht man für einen Rechner, der 173 Watt im Idle zieht ein 550 Watt NT? 350 Watt dürften reichen.

Wieso Rechner?

Das is nur die Karte allein...ohne den dazugehörigen Rechner. Und dafür ist es wesentlich zu viel was sie frisst...wenn man sich anguckt wie vergleichsweise wenig sie dafür nur leisten kann.

betasilie
2005-10-05, 15:26:30
http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=1

Imho das beste Review bisher. Viele Spiele. verschiedene Szenen und mit HDR.

SKYNET
2005-10-05, 15:26:31
Das stimmt. Allerdings sind die minimalen fps bei Nvidia auch nicht berauschend, zumindest ohne SLI.


stimmt, aber dennoch hat NV da 13% mehr! =)

Fadl
2005-10-05, 15:26:46
zum thema neuer treiber, die tester bekommen demnächst (so sagt man) 512MB karten mit neuem treiber... was glaubst du was die GTX mit 512MB und dem neuen treiber mit der X188XT macht? :biggrin:

Vorurteile. Zudem bietet die NVidia Karte das klar schlechtere AF.

Es fällt auch auf das die Review zum Teil deutlich andere Ergebnisse bei den Benchmarks zeigen. Mal ist die XT deutlich vorne und mal ist es quasi ein Patt.

Horimoto
2005-10-05, 15:27:04
sag mal skynet kannste mal aufhören die Karte runterzumachen?
kann deine TOP GTX denn volles AF? Nee
Kann sie HDR+AA (schon das alleine ist die 10% perf. wert!)? NEE
Also sei lieber mal ruhig ;)

RLZ
2005-10-05, 15:27:09
Die 1600XT ist für mich die wahre Entäuschung.
Bei ihrem Preis steht sie momentan und wohl in nächster Zeit gegen die 6800 GT und dort geht sie gnadenlos unter. :(
Um es auf den Punkt zu bringen das Ding kann keine Vertex-Texturen.
Damit wirds wohl keine breitere Unterstützung des Features geben.
Extrem schade...

Fadl
2005-10-05, 15:27:32
stimmt, aber dennoch hat NV da 13% mehr! =)

Bei welchem Test? Bei BF2 liegt die Ati da klar vorne. Also immer bei der ganzen Wahrheit bleiben ;)

SKYNET
2005-10-05, 15:28:06
Vorurteile. Zudem bietet die NVidia Karte das klar schlechtere AF.

Es fällt auch auf das die Review zum Teil deutlich andere Ergebnisse bei den Benchmarks zeigen. Mal ist die XT deutlich vorne und mal ist es quasi ein Patt.


der neue treiber bringt nicht nur speed, sondern auch winkelunabhängiges AF ab NV4x =)

Fadl
2005-10-05, 15:28:16
http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=1

Imho das beste Review bisher. Viele Spiele. verschiedene Szenen und mit HDR.

Jepp. Da bin ich deiner Meinung. Wirklich sehr umfangreich.

Demirug
2005-10-05, 15:28:33
kann es sein, das bisher nur NV die vollen SM3.0 spezifikationen erfüllt?

In dem Sinn wie SM3 ursprünglich gedacht war ja. Das was ATI hier macht ist eine klare Vergewaltigung der Spec.

In Summe muss ich aber noch mal die ganzen Caps allerdings gegeinader abwägen. In meinen primären Entwicklungrechner kommt aber wohl kein R520 rein. nVidia deckt die DX Spec soweit ich das derzeit sehe einfach besser ab.

Spasstiger
2005-10-05, 15:29:04
Wieso Rechner?

Das is nur die Karte allein...ohne den dazugehörigen Rechner. Und dafür ist es wesentlich zu viel was sie frisst...wenn man sich anguckt wie vergleichsweise wenig sie dafür nur leisten kann.

Nein, die Werte gelten für den kompletten Rechner. Soweit, dass eine Grafikkarte 173 Watt im Idle zieht, sind wir zum Glück noch nicht.

EDIT: Verschrieben, sorry.

SKYNET
2005-10-05, 15:29:15
sag mal skynet kannste mal aufhören die Karte runterzumachen?
kann deine TOP GTX denn volles AF? Nee
Kann sie HDR+AA (schon das alleine ist die 10% perf. wert!)? NEE
Also sei lieber mal ruhig ;)

1. mit dem nächsten offiziellen treiber schon
2. k.a. frag die technik gurus

Fadl
2005-10-05, 15:29:26
der neue treiber bringt nicht nur speed, sondern auch winkelunabhängiges AF ab NV4x =)

Abwarten. Und vor allem würde das die Balkenlänge dann wohl stark schrumpfen lassen...

BUG
2005-10-05, 15:30:18
*gelöscht*

thade
2005-10-05, 15:30:34
sag mal skynet kannste mal aufhören die Karte runterzumachen?
kann deine TOP GTX denn volles AF? Nee
Kann sie HDR+AA (schon das alleine ist die 10% perf. wert!)? NEE
Also sei lieber mal ruhig ;)


der kann nix für. Das ist ein NVidia Fanboy. GeForce Spieler sind es gewohnt mit schlechter BQ zu leben ^^

MartinRiggs
2005-10-05, 15:30:43
Also in puncto Bildqualität scheint sie ja sehr geil zu sein!!!!
Na ja mal schauen wie sich die Treiber entwickeln und was der Preis macht, das sind noch alles ungelegte Eier und in puncto Lautstärke mal abwarten was die Hersteller so bringen.

Horimoto
2005-10-05, 15:30:49
http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=15

Das zeigt imo beeindruckend, dass ATi die BESTE IQ hat.
Mit 6xMSAA in AAA sieht es besser aus als nVidias 8xS TRAA

A.Wesker
2005-10-05, 15:31:35
ich schätze die beides graka's als gleich stark ein, da jede karte ihre macken hat und in bestimmten spielen stark einbricht

Spasstiger
2005-10-05, 15:32:49
Gibts schon ein Review, in dem die 7800 GTX im HQ-Modus gegen die X1800 XT antritt? Kann ja nicht sein, dass man hier Flimmergrafik mit brauchbarem AF vergleicht.

P.S.: Screenshots aus der neuen ATI-Demo "Assasination" -> http://scr3.golem.de/?d=0509/atix1000&a=40782

betasilie
2005-10-05, 15:33:12
Man, geht mir HardOCP auf die Nüsse. Die waren früher mal ganz ok, was Reviews angeht, aber die Reviews sind mit diesen geOCten BFG-Tech Karten, die weder vom Takt noch vom Preis einem Standardprodukt entsprechen, echt super schlecht geworden, weil einfach Karten außerhalb jeder Spezifikation gebencht werden. :mad:

[dzp]Viper
2005-10-05, 15:33:12
ich schätze die beides graka's als gleich stark ein, da jede karte ihre macken hat und in bestimmten spielen stark einbricht

genauso sehe ich das auch.

Aber das AA+AF von ATI ist ein Kaufgrund, der für mich sehr schwerwiegend wäre :)

Nero2
2005-10-05, 15:33:25
Das ist ja ein Chat hier...

Adam D.
2005-10-05, 15:33:26
Abwarten. Und vor allem würde das die Balkenlänge dann wohl stark schrumpfen lassen...
Abwarten - ja. Aber das sie so viel verliert, glaube ich nicht. Der R520 verliert ja, wenn der Test von CB richtig ist, kaum bei HQ-AF (was ich sehr löblich finde). Wobei ich nicht weiß, ob man das eben so vergleichen kann oder ob die Architekturen doch zu unterschiedlich sind.
Und wenn es stimmt, dass Nvidia bald winkelunabhängiges AF liefert, sehe ich einfach keinen Grund, einen R520 zu kaufen: Der ist in etwa gleich schnell, aber lauter, heißer und verbraucht deutlich mehr Strom.

Von der Verfügbarkeit will ich erst gar nicht sprechen...

Edit: Die AA-Qualität, das muss ich sagen, ist aber wirklich erstaunlich geil. Super, ATi :)

Blaze
2005-10-05, 15:34:45
Nein, die Werte gelten für den kompletten Rechner. Soweit, dass eine Grafikkarte 173 Watt im Idle zieht, sind wir zum Glück noch nicht.

EDIT: Verschrieben, sorry.

Jo sry...du verschrieben, ich verlesen ;)

Trotzdem heftig dass die Karte im Idle mehr zieht als 2 GTXen... :rolleyes:

SKYNET
2005-10-05, 15:37:16
In dem Sinn wie SM3 ursprünglich gedacht war ja. Das was ATI hier macht ist eine klare Vergewaltigung der Spec.

In Summe muss ich aber noch mal die ganzen Caps allerdings gegeinader abwägen. In meinen primären Entwicklungrechner kommt aber wohl kein R520 rein. nVidia deckt die DX Spec soweit ich das derzeit sehe einfach besser ab.


aha, danke!

und wieder nen stück schlauer! =)

SKYNET
2005-10-05, 15:38:21
der kann nix für. Das ist ein NVidia Fanboy. GeForce Spieler sind es gewohnt mit schlechter BQ zu leben ^^


stimmt, wir haben das bessere AF bis zum heutigen tage, und werden es mit dem nächsten treiber auch wieder haben. =)

A.Wesker
2005-10-05, 15:38:34
http://pics.computerbase.de/artikel/495/46.png

hier scheint es bei 6AA noch probleme zu geben

Super Grobi
2005-10-05, 15:38:41
Jo sry...du verschrieben, ich verlesen ;)

Trotzdem heftig dass die Karte im Idle mehr zieht als 2 GTXen... :rolleyes:

KANN es sein das die Karte eine Stromsparfunktion per Treiber bekommt und diese noch nicht funzt? Nur so eine Idee...

Aber das die Karte noch flotter wird durch neue Treiber, ist so sicher wie ...

Bisher wurden alle Karte nach dem Release durch neue Treiber flotter. Daher hat NV jetzt einen Vorteil da es die Karte ja schon etwas länger gibt und daher die Treiber besser sind.

SG

Avalox
2005-10-05, 15:38:43
3D-Grafikchips Radeon X1000 mit vielen Verbesserungen [Update]

http://www.heise.de/newsticker/meldung/64592

.....
"Der Kartenhersteller Sapphire macht folgende Angaben zu den Endverkaufspreisen: Das Radeon-X1800-XT-Modell mit 512 MByte Speicher soll bei 549 Euro und die XL-Variante mit 256 MByte bei 449 Euro liegen. Die Preise für die Radeon X1600 reichen von 149 Euro für die Pro-Version mit 128 MByte bis zu 249 Euro für die XT-Version mit 256 MByte. Modelle mit dem Radeon X1300 sollen ab 99 Euro (Standard, 128 MByte) zu haben sein. Die Radeon X1300 Pro mit 256 MByte soll 149 Euro kosten.

Händler sind zuversichtlich, erste Exemplare bereits in der nächsten Woche ausliefern zu können"

TrigPe
2005-10-05, 15:38:50
Ich bin vorallem von der X1600XT enttäuscht. Die scheint ja eine richtig "mistige" Karte zu sein. Schade, auf die war ich richtig scharf.


MfG

bardh
2005-10-05, 15:39:11
Nvidia hat wohl diese Runde eindeutig gewonnen, im High End Berreich!
Schon seit Juni verfügbar und ATI anfangs Oktober immernoch keine einzige Karte auf dem Markt!
Pech für ATI... :D

betasilie
2005-10-05, 15:39:46
Und auch das neue HDR, was ja mit AA funktioniert, funzt super.

Blaze
2005-10-05, 15:40:19
Nvidia hat wohl diese Runde eindeutig gewonnen, im High End Berreich!
Schon seit Juni verfügbar und ATI anfangs Oktober immernoch keine einzige Karte auf dem Markt!
Pech für ATI... :D

Solche Worte von dir?

Wow...hätt ich nicht gedacht :D

Horimoto
2005-10-05, 15:40:52
Kommt es mir nur so vor, oder schneiden die X1xxx Karten bei cb EXTREM schlecht ab?
haben die nen andren Treiber oder so?
Ausserdem zieht HQAF anschiend nur paar frames, was mcih unglaublich glücklich macht :)

Nur noch den Beweis für HDR+AA in FC.......... und Bilder von HQAF, dann is sie gekauft :D

Demirug
2005-10-05, 15:40:58
Und auch das neue HDR, was ja mit AA funktioniert, funzt super.

Welches Spiel unterstützt das den schon?

Spasstiger
2005-10-05, 15:41:21
http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=15

Das zeigt imo beeindruckend, dass ATi die BESTE IQ hat.
Mit 6xMSAA in AAA sieht es besser aus als nVidias 8xS TRAA

Finde den 7800 GTX Screen einen Tick besser. Allerdings kostet 8xS schon genug Leistung (in HL2 spielt das natürlich keine Rolle, ist eh CPU-limitiert), da dürfte ATI die deutlich performantere Lösung bieten. Gerade in Blick auf die Zukunft.

up¦²
2005-10-05, 15:41:46
Ati hat info frei geschaltet!
http://www.ati.com/

Blaze
2005-10-05, 15:41:56
Das einzige was mich an ATi immer wieder fasziniert sind deren Demos...die Screens sehn ja extrem geil aus :eek:

Fadl
2005-10-05, 15:42:12
Abwarten - ja. Aber das sie so viel verliert, glaube ich nicht. Der R520 verliert ja, wenn der Test von CB richtig ist, kaum bei HQ-AF (was ich sehr löblich finde). Wobei ich nicht weiß, ob man das eben so vergleichen kann oder ob die Architekturen doch zu unterschiedlich sind.
Und wenn es stimmt, dass Nvidia bald winkelunabhängiges AF liefert, sehe ich einfach keinen Grund, einen R520 zu kaufen: Der ist in etwa gleich schnell, aber lauter, heißer und verbraucht deutlich mehr Strom.

Von der Verfügbarkeit will ich erst gar nicht sprechen...

Edit: Die AA-Qualität, das muss ich sagen, ist aber wirklich erstaunlich geil. Super, ATi :)

Noch ist für mich nichtmal klar mit welchem AF Modus man die NVidia Karten gebencht hat. Wenn man die nur im "Quality" Modus betrieben hat dann kann man die Werte eh nicht miteinander vergleichen.
Das ATI Karten wenig einbrechen beim aktivieren vom HQ AF muss zudem auch nicht heissen das dies bei NVidia genauso ist. Der Unterschied von Quality zu High Quality bei NVidia ist ja auch nicht ohne....

X.Perry_Mental
2005-10-05, 15:42:25
Jetzt ist auch die offizielle ATI-Seite online: http://www.ati.com/products/RadeonX1800/index.html

Mcdave
2005-10-05, 15:42:28
Ich bin alles andere als enttäuscht. In hohen Auflösungen mit AA(A)+AF liegt sie -bis auf die Open GL Spiele- vorne. Und wer betreibt schon eine solche Karte in 1024 ohne diese Features......

Die Bildqualität im HQ Modus sucht offenbar ihresgleichen, sogar HDR+AA ist möglich. Das zählt primär für mich (und da ist das 3DCenter nicht ganz unschuldig ;) )

Zugegeben, die Karte dürfte kühler (und somit auch leiser) sein, aber hier wird es sicher weitere Lösungen seitens der Hersteller geben, die dem etwas abhelfen werden.

Nun muss das Teil auch noch für AGP erscheinen. Falls nicht, bleibt mein PC bis Longhorn wie er ist.

Blaire
2005-10-05, 15:42:55
Mich wundert das es keine Quake 4 Benchmarks zu sehen gibt, zumal das Game schon sehr bald erscheint? :confused:

blackbox
2005-10-05, 15:43:24
Die 1600XT ist für mich die wahre Entäuschung.
Bei ihrem Preis steht sie momentan und wohl in nächster Zeit gegen die 6800 GT und dort geht sie gnadenlos unter. :(

Damit wirds wohl keine breitere Unterstützung des Features geben.
Extrem schade...

Jo, eine riesen Enttäuschung ist die X1600 XT.
Was sich im absoluten Highendbereich abspielt ist mir persönlich egal.
Die paar FPS mehr oder weniger sind dort doch völlig egal.
Die wenigsten kaufen sich über 500 Euro teure Karten.
Deshalb wäre es mir leiber gewesen, die Reviewer hätten den Focus mehr auf die Midrange Karten gelegt. Denn dort schneidet die X1600 XT ungewöhlich schlecht ab. Sollte sie im Preis nicht schnellstens sinken (von der Verfügbarkeit reden wir besser gar nicht), dann ist sie von Anfang an zum Scheitern verurteilt.
Schade, denn schon wieder übergibt ATI das Feld der Midrange Karten wieder Nvidia. Das war schon zu 6600GT Zeiten so und es wird leider so bleiben. Und wenn sie schon gerade dabei sind, einen Schritt in Richtung Erfolgslosigkeit zu gehen, dann sollen sie auch wieder konsequent nur auf PCIe setzen.
Wie kann man so blöd sein und zwei mal hintereinander die selben 2 Fehler zu begehen? :confused: :confused: :confused:

deekey777
2005-10-05, 15:43:24
Welches Spiel unterstützt das den schon?

Im B3D Preview ist ein Screenshot aus Far Crys Training Map zu sehen inkl. HDR&AA.
http://www.beyond3d.com/reviews/ati/r520/index.php?p=06

€: Ist es eine angepaßte Version?
"The images above are taken from a version of Far Cry that enables their HDR rendering mode to operate with FSAA on ATI's new boards, which only took a few hours to enable. It is expected that this capability will be fully integrated through the engine and interface and, once correctly quality assured, a patch issued - due to the early nature of this code we are unable to provide benchmarks at this juncture."
Ich nehme alles zurück.

Blaze
2005-10-05, 15:47:14
Mich wundert das es keine Quake 4 Benchmarks zu sehen gibt, zumal das Game schon sehr bald erscheint? :confused:

Dort würde sie genauso untergehen wie in Doom3...

-3Dprophet-
2005-10-05, 15:49:32
kann euch das review von techreport ans herz legen, finde ich recht gut.

die XL ist schon ein bisschen entäuschend im vergleich zur XT, aber alles halb so wild, wirklich "geschockt" hat mich aber der stromverbrauch. :(
da hatte ich etwas anderes, bzw. weniger verbrauch erwartet. ein weiteres 90nm opfer nach intel ;)

Dr.Dirt
2005-10-05, 15:49:33
Hmm,

der Strombedarf ist ja riesig, ca. 50W im Idle mehr als meine jetzige X850. Da werd ich dann wohl verzichten. ;(


http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=16

X.Perry_Mental
2005-10-05, 15:49:37
Bei Heise Online gibts ein Update zur bekannten Meldung (http://www.heise.de/newsticker/meldung/64592) zum Thema Verfügbarkeit & Preise:

[Update]:
Der Kartenhersteller Sapphire macht folgende Angaben zu den Endverkaufspreisen: Das Radeon-X1800-XT-Modell mit 512 MByte Speicher soll bei 549 Euro und die XL-Variante mit 256 MByte bei 449 Euro liegen. Die Preise für die Radeon X1600 reichen von 149 Euro für die Pro-Version mit 128 MByte bis zu 249 Euro für die XT-Version mit 256 MByte. Modelle mit dem Radeon X1300 sollen ab 99 Euro (Standard, 128 MByte) zu haben sein. Die Radeon X1300 Pro mit 256 MByte soll 149 Euro kosten.

Händler sind zuversichtlich, erste Exemplare bereits in der nächsten Woche ausliefern zu können. Sapphire berichtet, dass man die Radeon X1800 XL bereits an Alternate, Amazon, Arlt-Computer, Snogard und Conrad online ausgeliefert habe oder dies in den nächsten Tage tun werde. Mitte bis Ende Oktober sollen der Radeon X1300 folgen, Anfang November die Radeon X1800 XT und Anfang Dezember die Mittelklasse-Karten mit dem Radeon X1600. Weitere Details und Benchmarks bringt c't in Ausgabe 22/05 (ab Montag, den 17. Oktober im Handel). (Manfred Bertuch) / (jk/c't)

Spasstiger
2005-10-05, 15:50:35
Das einzige was mich an ATi immer wieder fasziniert sind deren Demos...die Screens sehn ja extrem geil aus :eek:

Geschmackssache. Mir geällt das extreme Rumgeblure bei den GeForce-7- und den neuen ATI-Demos nicht besonders. Lieber ein gestochen scharfes Bild und scharfe Texturen.

MechWOLLIer
2005-10-05, 15:50:45
Wir (ComputerBase) hat alle nVidia-Karten auf High Quality getestet, wie man auch hier nachlesen kann: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/10/#abschnitt_benchmarks
;)


Noch ist für mich nichtmal klar mit welchem AF Modus man die NVidia Karten gebencht hat. Wenn man die nur im "Quality" Modus betrieben hat dann kann man die Werte eh nicht miteinander vergleichen.
Das ATI Karten wenig einbrechen beim aktivieren vom HQ AF muss zudem auch nicht heissen das dies bei NVidia genauso ist. Der Unterschied von Quality zu High Quality bei NVidia ist ja auch nicht ohne....

PP
2005-10-05, 15:51:11
Ich muss sagen ich bin positiv überrascht. Wer hätte das gedacht (vor zwei Wochen), dass die X1800XT gegen die 7800 GTX nicht nur bestehen, sondern auch teilweise gewinnen kann...
Fazit von Techreport (http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=17) :
Für die XT
"At the very high end of the market, the Radeon X1800 XT is indeed a worthy competitor for the GeForce 7800 GTX. In Direct3D games, the X1800 XT is usually faster than the 7800 GTX. Unfortunately, ATI's weak showing in OpenGL games keep the X1800 XT from capturing the undisputed heavyweight title. I also have a few concerns about the likely extent of the Radeon X1800 XT's availability in the market, given its relatively high GPU clock speeds. We will have to wait and see about that."
Für die XL
"The battle between the Radeon X1800 XL and the GeForce 7800 GT is close, but I'd have to give the edge to the 7800 GT. On balance, the 7800 GT is faster, though there are occasions, like in Far Cry and the F.E.A.R. demo, where the X1800 XL outruns even the GeForce 7800 GTX. Assuming the Radeon X1800 XL can soon hit the lower price points that some 7800 GT cards are hitting, it ought to be a very competitive product."

Blaze
2005-10-05, 15:51:21
Mich wurmt es dass sie in FEAR so abgeht... :rolleyes:

SKYNET
2005-10-05, 15:52:28
Dort würde sie genauso untergehen wie in Doom3...


eher heftiger, die PS einheiten im G70 sind VIEL stärker... und Q4 wird sicherlich nicht wenig shaderkrams haben!

und viel mehr würde mich intressieren, wie ne GTX ne 1800XT in UT3 entkleidet! :biggrin:

thade
2005-10-05, 15:52:55
Dort würde sie genauso untergehen wie in Doom3...

mag sein. Nur schau Dir mal FEAR an, weswegen du Dir extra SLI besorgt hast. Naja ich würde sagen haste Pech gehabt. Eine X1800XT wäre die bessere Alternative gewesen, Geschweige denn was mit Crossfire möglich wäre.

http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png

bardh
2005-10-05, 15:53:10
Wie würde wohl die 7800 GTX mit 750 Mhz Speichertakt abschneiden?
Doch selbst mit 600 Mhz meistens der X1800 XT überlegen, ausser in Fear! :|

Gandharva
2005-10-05, 15:53:49
der neue treiber bringt nicht nur speed, sondern auch winkelunabhängiges AF ab NV4x =)

woher hast du die info? quelle bitte!

Dr.Dirt
2005-10-05, 15:54:45
Mich wurmt es dass sie in FEAR so abgeht... :rolleyes:

Warum stört es dich?

Demirug
2005-10-05, 15:54:49
Im B3D Preview ist ein Screenshot aus Far Crys Training Map zu sehen inkl. HDR&AA.
http://www.beyond3d.com/reviews/ati/r520/index.php?p=06

€: Ist es eine angepaßte Version?
"The images above are taken from a version of Far Cry that enables their HDR rendering mode to operate with FSAA on ATI's new boards, which only took a few hours to enable. It is expected that this capability will be fully integrated through the engine and interface and, once correctly quality assured, a patch issued - due to the early nature of this code we are unable to provide benchmarks at this juncture."
Ich nehme alles zurück.

Ist eine angepasste. Deswegen hatte ich mich auch gewundert. Werde wohl SC3 für einen Benchmark patchen müssen.

Horimoto
2005-10-05, 15:54:51
Nach den benches von FEAR, BF2 und FC würde ich eher sagen,d ie XT entkleidet die GTX ;)

WILL OC ERGEBNISSE VON DER XL SEHEN, WEIL NUR DIE ODER DIE GTX FÜR MICH IN FRAGE KOMMEN; WEIL ICH SIE IN DEN NÄCHSTEN TAGEN BRAUCHE

A.Wesker
2005-10-05, 15:55:10
mag sein. Nur schau Dir mal FEAR an, weswegen du Dir extra SLI besorgt hast. Naja ich würde sagen haste Pech gehabt. Eine X1800XT wäre die bessere Alternative gewesen, Geschweige denn was mit Crossfire möglich wäre.

http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png
und was ist mit AoE 3?
man braucht sich nichts vormachen, die karten brechen in der gleichen anzahl an games ein, keine ist besser oder schlechter. weiterhin wurde nicht mit dem 81.82 getestet, der nochmal einiges an leistung bringt.

Blaze
2005-10-05, 15:55:18
mag sein. Nur schau Dir mal FEAR an, weswegen du Dir extra SLI besorgt hast. Naja ich würde sagen haste Pech gehabt. Eine X1800XT wäre die bessere Alternative gewesen, Geschweige denn was mit Crossfire möglich wäre.

http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png


Ich hab mir ganz sicher nicht extra wegen FEAR SLI besorgt, wer hat dir denn den Floh ins Ohr gesetzt? :| Ich hatte auch schon vor den 7800ern SLI...*fyi*

@ Sky: Warten wir ab...was UT2k7 angeht wär ich mir da auch nicht so sicher... :redface:

SKYNET
2005-10-05, 15:55:31
Wir (ComputerBase) hat alle nVidia-Karten auf High Quality getestet, wie man auch hier nachlesen kann: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/10/#abschnitt_benchmarks
;)


das heißt, das die NV karten also mit hoher BQ gegen die ATI karten gewonnen haben? *applaus*

Spasstiger
2005-10-05, 15:56:15
Mich wurmt es dass sie in FEAR so abgeht... :rolleyes:

Naja, der Shadercode von Fear dürfte dem R520 wohl besonders schmecken. Vielleicht hat ATI auch irgendwelche speziellen Optimierungen in den Treiber gepackt, immerhin ist Fear der wichtigste Next-Gen-Shooter in diesem Jahr (Quake 4 ist nicht Next-Gen, da Doom-3-Engine).

Ich sehe schon das große ATI-NV-Gebashe kommen, wenn Quake 4 und Fear am 18. Oktober offiziell erscheinen. Quake 4 wird Nvidia besonders gut schmecken, Fear eben ATI.

SKYNET
2005-10-05, 15:56:55
mag sein. Nur schau Dir mal FEAR an, weswegen du Dir extra SLI besorgt hast. Naja ich würde sagen haste Pech gehabt. Eine X1800XT wäre die bessere Alternative gewesen, Geschweige denn was mit Crossfire möglich wäre.

http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png


ich nehme mal an, weil gewisse shader da nur auf 1.x laufen und nicht auf 3.0 wie gefordert?

Fadl
2005-10-05, 15:57:01
Wie würde wohl die 7800 GTX mit 750 Mhz Speichertakt abschneiden?
Doch selbst mit 600 Mhz meistens der X1800 XT überlegen, ausser in Fear! :|

Doom3 ist für dich meistens? Die meisten Direkt X Games sind auf der ATI Karte schneller. Wird Zeit das hier einige ihr *böseswort* gehabe mal ablegen. Es geht um Grafikkarten und nicht um Familienmitglieder etc.... Wie können einige da nur so voreingenommen sein?

A.Wesker
2005-10-05, 15:57:44
Nach den benches von FEAR, BF2 und FC würde ich eher sagen,d ie XT entkleidet die GTX ;)

WILL OC ERGEBNISSE VON DER XL SEHEN, WEIL NUR DIE ODER DIE GTX FÜR MICH IN FRAGE KOMMEN; WEIL ICH SIE IN DEN NÄCHSTEN TAGEN BRAUCHE

dagegen kann man UT 2004, AoE 3, Doom3, Quake 4, Riddick etc. stellen...

Blaire
2005-10-05, 15:58:09
mag sein. Nur schau Dir mal FEAR an, weswegen du Dir extra SLI besorgt hast. Naja ich würde sagen haste Pech gehabt. Eine X1800XT wäre die bessere Alternative gewesen, Geschweige denn was mit Crossfire möglich wäre.

http://img.hexus.net/v2/graphics_cards/ati/r520xt/images/bench/bench-fear-iq.png

Warum Pech gehabt?? Die Benchmarks sind völlig unbrauchbar.
1. Hat Nvidia noch kein SLI Profil im Treiber
2. wurde nicht! der neueste 81.84 getestet der deutlich fixer ist vor allem wenn AA/AF ins Spiel kommt
3. Hat Fear enorme Probleme mit vergessen von Einstellungen, siehe Softshadows und daher sollte man da Vorsicht walten lassen

BodyLove
2005-10-05, 15:58:26
das heißt, das die NV karten also mit hoher BQ gegen die ATI karten gewonnen haben? *applaus*

Das heisst nur, dass beide in High-Quality-Modus gebencht wurden. Von besserer BQ ist da keine Rede...

Blaze
2005-10-05, 15:58:33
ich nehme mal an, weil gewisse shader da nur auf 1.x laufen und nicht auf 3.0 wie gefordert?

Jo bestimmt ein Treiberbug ;D

Ach mir alles egal, wenn ich den Stromverbrauch und vor allem die Lautstärke seh bin ich froh dass ich mir damals SLI angeschafft hab und nicht noch auf CrossFire gewartet hab :tongue: *seine 2 leisen Pferdchen streichelt*

Fadl
2005-10-05, 15:59:34
dagegen kann man UT 2004, AoE 3, Doom3, Quake 4, Riddick etc. stellen...

UT2004? NAJA

Zudem sollte man sich auch mal andere Reviews als jenes von Computerbase durchlesen. Denn das scheint nicht unbedingt mit den anderen übereinzustimmen. Die Unterschiede in einigen Tests sind doch schon deutlich.

A.Wesker
2005-10-05, 15:59:43
Das heisst nur, dass beide in High-Quality-Modus gebencht wurden. Von besserer BQ ist da keine Rede...
bei computerbase war der Catalyst glaube ich @ quality vs nv HQ

Spasstiger
2005-10-05, 15:59:47
Nur schau Dir mal FEAR an, weswegen du Dir extra SLI besorgt hast. Naja ich würde sagen haste Pech gehabt. Eine X1800XT wäre die bessere Alternative gewesen, Geschweige denn was mit Crossfire möglich wäre.

Mit zwei 7800 GTX im SLI liegen die minimalen Frameraten mehr als doppelt so hoch wie mit einer X1800 XT. Somit sind zwei 7800 GTX im SLI optimal für Fear. Die durschnittliche Framerate interessiert da imo nicht so sehr.

Matrix316
2005-10-05, 15:59:52
Wie kann man für eine 256 MB X1600XT 249 € oder so verlangen? 149 € (!) wäre noch zu viel... :redface: (bei der Leistung).

Rente
2005-10-05, 15:59:53
Kann mal jemand Skynet aus dem Thread entfernen, bitte. Er versucht hier nur seinen Kauf zu rechtfertigen.

Blaze
2005-10-05, 16:00:14
UT is CPU-limited...das kannst kaum als Vergleich herziehen...

[dzp]Viper
2005-10-05, 16:00:21
dagegen kann man UT 2004, AoE 3, Doom3, Quake 4, Riddick etc. stellen...

und dagegen kann man wieder spiel x und spiel y und spiel z stellen

leute - seht nicht immer nur einzelbeispiele sondern versucht das im gesamten zu sehen! :)

Johnny
2005-10-05, 16:00:36
dagegen kann man UT 2004, AoE 3, Doom3, Quake 4, Riddick etc. stellen...
...Ausser AoE3 interessieren diese Spiele kein Arsch

nino
2005-10-05, 16:00:53
Nach den benches von FEAR, BF2 und FC würde ich eher sagen,d ie XT entkleidet die GTX ;)

WILL OC ERGEBNISSE VON DER XL SEHEN, WEIL NUR DIE ODER DIE GTX FÜR MICH IN FRAGE KOMMEN; WEIL ICH SIE IN DEN NÄCHSTEN TAGEN BRAUCHE

in den nächsten tagen wird das sowieso nix ;)
ich bin mal gespannt wie ati die nischen füllt, die 1600xt ist ja n gutes stück lahmer als die 1800xl. naja und die preise find ich für die langsameren karten auch n bissel hoch, 250€ für die 1600xt und die is langsamer als die x800xl, aber das is wohl normal wenn die karten neu sind...

thade
2005-10-05, 16:01:22
ich nehme mal an, weil gewisse shader da nur auf 1.x laufen und nicht auf 3.0 wie gefordert?

sag mal du bist ja ein richtiger NV Sklave.

Wartet ab mit Crossfire holt sich ATI die Krone zurück. Kommen ja mit X850XT CRossfire fast schon an NV 7800GTX SLI ran.

Ronny145
2005-10-05, 16:01:24
Hmm,

der Strombedarf ist ja riesig, ca. 50W im Idle mehr als meine jetzige X850. Da werd ich dann wohl verzichten. ;(


http://techreport.com/reviews/2005q4/radeon-x1000/index.x?pg=16


Unter Last geht es einigermaßen. Aber im Idle ist das schon seltsam der Abstand. Was verbraucht da soviel :confused: Oder es funktioniert die Stromsparfunktion im Idle nicht richtig.

Blaze
2005-10-05, 16:01:31
Mit zwei 7800 GTX im SLI liegen die minimalen Frameraten mehr als doppelt so hoch wie mit einer X1800 XT. Somit sind zwei 7800 GTX im SLI optimal für Fear. Die durschnittliche Framerate interessiert da imo nicht so sehr.

Danke, endlich mal einer der es kapiert hat.

Lieber zock ich mit 50 min. FPS und 100 AVG als mit 30 min. und 200 AVG ;)

Fadl
2005-10-05, 16:01:42
Viper']und dagegen kann man wieder spiel x und spiel y und spiel z stellen

leute - seht nicht immer nur einzelbeispiele sondern versucht das im gesamten zu sehen! :)


Was einigen hier aber nicht leicht zu sein scheint ;)
Kann ja nicht sein was nicht sein darf....

deekey777
2005-10-05, 16:02:31
Ist eine angepasste. Deswegen hatte ich mich auch gewundert. Werde wohl SC3 für einen Benchmark patchen müssen.

Ich wollte schon den Sekt kalt stellen.

Zu der X1600XT: Sie muß eigentlich nur schneller sein als die 6600GT.

Gouvernator
2005-10-05, 16:03:04
mich interessiert nur wie die Karten in 1280*1024 mit 16xAA oder 6SxAA abschneiden. Ich brauche so eine Grafikkarte um ältere Spiele zu zocken...HL² z.B.

Blaze
2005-10-05, 16:03:08
Wartet ab mit Crossfire holt sich ATI die Krone zurück. Kommen ja mit X850XT CRossfire fast schon an NV 7800GTX SLI ran.

Dafür brauchst du

a) ein Kraftwerk neben deinem rechner
b) Ohropax
c) viel nerven weil die technik noch lang nicht so ausgereift ist wie SLI

Also, wer tut sich DAS bitte freiwillig an? :|

A.Wesker
2005-10-05, 16:03:18
...Ausser AoE3 interessieren diese Spiele kein Arsch
quake 4 wird nur wieder der erfolgreichste online ego-shooter, aber interessiert ja keinen.... man kann es sich auch so zurechtlegen wie es einem passt...

Horimoto
2005-10-05, 16:03:42
Ja seh ich auch so.
AVG fps sind eigentlich fast zu nix zu gebrauchen.
laut firingsquad liegt die XT/XL meistens vor der G70 in min. fps (FC usw)

bardh
2005-10-05, 16:03:50
Doom3 ist für dich meistens? Die meisten Direkt X Games sind auf der ATI Karte schneller. Wird Zeit das hier einige ihr *böseswort* gehabe mal ablegen. Es geht um Grafikkarten und nicht um Familienmitglieder etc.... Wie können einige da nur so voreingenommen sein?

Insgesamt sind die 7800 GTX und X1800 XT "fast" gleichauf, oder mit einem kleinen Vorsprung für die 7800 GTX, aber man darf nicht vergessen das die X1800 3 Monate später gekommen ist und das zählt deutlich für die 7800 GTX.
Wäre bei ATI die Leistung deutlich besser, wäre in Sachen Bildqualität alles gleich geblieben.

thade
2005-10-05, 16:04:20
Dafür brauchst du

a) ein Kraftwerk neben deinem rechner
b) Ohropax
c) viel nerven weil die technik noch lang nicht so ausgereift ist wie SLI

Also, wer tut sich DAS bitte freiwillig an? :|


a: kein Problem
b: Wer sich keine Wakü leisten kann ^^
c: Wer sagt das? Die NV Flame Versuche :rolleyes:

Melbourne, FL
2005-10-05, 16:04:31
Also ich finde die X1800XT sehr gelungen. In Spielen mit vielen Schatten (Riddick, Doom3) aber recht wenigen Shadern verliert sie zwar recht heftig aber sonst steht sie echt gut da und bietet dabei noch die Möglichkeit für ein paar fps die Bildqualität echt zu steigern. Nicht schlecht. Aber kaufen werd ich mir wohl trotzdem keine...meine X800XT reicht noch ein ganzes Stück und das Geld ist momentan nicht ganz so reichlich vorhanden... ;)

Alexander

PS: SKYNET geht mir mit seinen unqualifizierten Aussagen auch ziemlich auf den Keks.

BodyLove
2005-10-05, 16:04:39
bei computerbase war der Catalyst glaube ich @ quality vs nv HQ

Ist bei CB nun AI off oder nicht?

Nach sorgfältiger Überlegung and mehrfacher Analyse selbst aufgenommener Spielesequenzen, sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Off“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

Aber du scheinst recht zu haben. ATI=Quality.

Johnny
2005-10-05, 16:04:47
quake 4 wird nur wieder der erfolgreichste online ego-shooter, aber interessiert ja keinen.... man kann es sich auch so zurechtlegen wie es einem passt...
Mit Q4 ist sowieso alles klar weil = D3

up¦²
2005-10-05, 16:05:45
Wie es aussieht, ein Interimchip, die sache wird erst wieder mit dem 580er revolutionär, aber dann richtig!

Matrix316
2005-10-05, 16:06:02
Ich wollte schon den Sekt kalt stellen.

Zu der X1600XT: Sie muß eigentlich nur schneller sein als die 6600GT.

Und was ist mit der 6800NU? Die kostet 100 € weniger und ist nicht viel langsamer, manchmal auch schneller. Oder was ist mit der X800GT? Oder X800? Oder X800GTO? Die X1600XT ist doch bis auf jetzt SM3 nicht viel schneller als diese Karten. Oder was ist mit einer 6800GT für 230 €? Oder eine X800PRO für 190 €? Oder X800XTPE für 240 €? Wie passt da eine teurere X1600XT rein?

Blaze
2005-10-05, 16:06:14
a: kein Problem
b: Wer sich keine Wakü leisten kann ^^
c: Wer sagt das? Die NV Flame Versuche :rolleyes:

Och bitte...SLI gibts seit nem Jahr...also was ist da wohl die ausgereiftere Technik?

Horimoto
2005-10-05, 16:07:09
naja albert,
quake4 wird sicher NICHT der erfolgreichste Onlineshooter, aus 2 Gründen:
Es ist KEIN ARENA, wie Q3, was in der tat der erfolgreichste ist.
Q4 wird ein Solo Part mit MP Anhängsel, was aber besser wird als D3.
Bis sich Q4 durchstzetn kann, ist UT2k7 draussen, und dann, das kann ich jetzt schon sagen, interessiert KEIN SCHWEIN Q4........
Ich würde eher auf benches von FEAR, BF2 und AoE3 aufpassen.

Fadl
2005-10-05, 16:07:49
Insgesamt sind die 7800 GTX und X1800 XT "fast" gleichauf, oder mit einem kleinen Vorsprung für die 7800 GTX, aber man darf nicht vergessen das die X1800 3 Monate später gekommen ist und das zählt deutlich für die 7800 GTX.
Wäre bei ATI die Leistung deutlich besser, wäre in Sachen Bildqualität alles gleich geblieben.


Gleichauf oder mit einem Vorteil zugunsten der ATI Karte. Sieh es doch einfach ein! Oder ist es so schwer das zuzugeben?
Welche Karte hier und da erhältlich war spielt für das jetzt und heute keine Rolle. Wer sich bald eine Karte kauft der kann sich halt zwischen beiden entscheiden. Oder glaubst du jemand kauft sich aus dem Grund das es die NVidia ja schon länger gibt keine ATI Karte?
Freut euch doch das beide Karten oft dicht beieinander liegen. Da kann man dann nicht soviel verkehrt machen. Wer auf die bessere Bildqualität und einige weitere Features wert legt kauft die ATI. Wer bei Doom3 jedes Frame braucht die NVidia. Fanboys kaufen eh nur Karten "ihrer" Marke.

deekey777
2005-10-05, 16:08:35
Ist bei CB nun AI off oder nicht?
Bei ATi wurde/wird mit AI getestet.


Aber du scheinst recht zu haben. ATI=Quality.

Catalyst A.I.: Standard
Mipmap Detail Level: Quality <- Muß einen Beschwerdebrief schreiben.
Wait for vertical refresh: Always off
Adaptive Anit-Aliasing: Off
High Quality AF: Off
Truform: Always Off

thade
2005-10-05, 16:08:47
Och bitte...SLI gibts seit nem Jahr...also was ist da wohl die ausgereiftere Technik?

Was hat das Eine mit dem Anderen zu tun? Du hast Crossfire noch nicht selbst getestet und redest dein SLI schön. Crossfire wird die neue Referenz werden, da kann NV machen was sie wollen.

Wobei sie den Begriff SLI eh vergewaltigt haben. Schande über NV :mad:

A.Wesker
2005-10-05, 16:09:10
naja albert,
quake4 wird sicher NICHT der erfolgreichste Onlineshooter, aus 2 Gründen:
Es ist KEIN ARENA, wie Q3, was in der tat der erfolgreichste ist.
Q4 wird ein Solo Part mit MP Anhängsel, was aber besser wird als D3.
Bis sich Q4 durchstzetn kann, ist UT2k7 draussen, und dann, das kann ich jetzt schon sagen, interessiert KEIN SCHWEIN Q4........
Ich würde eher auf benches von FEAR, BF2 und AoE3 aufpassen.
allein schon die fangemeinde und die quakecon werden quake 4 einen gehörigen auftrieb geben. weiterhin soll das hauptaugenmerk auf den multiplayer gelegt werden

dildo4u
2005-10-05, 16:09:10
Video der neuen ATI Techdemo ToyShop.

http://www2.ati.com/multimedia/radeonx1k/ATI-Demo-ToyShop-v1.1.zip

SKYNET
2005-10-05, 16:09:24
bei computerbase war der Catalyst glaube ich @ quality vs nv HQ



jupp, also ein vorteil für die ATI karten, und dennoch haben die NV karten sie geschlagen! :cool:

Spasstiger
2005-10-05, 16:09:30
Mir würde eine Entscheidung zugunsten ATI oder NV derzeit schwer fallen.
Da wäre zum einen die GeForce 7800 GTX mit einer voraussichtlich sehr guten Leistung in Quake 4 und auch generell einer sehr guten Leistung. Außerdem SM3.0 auf dem maximalen Level, das derzeit angeboten wird. Dann noch gutes und schnelles AA dank Transparency AA. Außerdem sind die Karten schlank gebaut und leise.
Zum anderen wäre da die Radeon X1800 XT, welche teilweise neue Maßstäbe setzt (z.b. Fear), aber sich insgesamt kaum von der 7800 GTX absetzen kann. In OpenGL bestehen dieselben Mankos wie eh und je. Das SM3.0 wird nicht auf maximal möglicher Stufe angeboten (keine Vertex-Texturen und damit keine Physikspielereien auf dem Grafikchip), dafür ist HDR auch in Verbindung mit AA möglich. Das AA ist dank dem adaptiven AntiAliasing sehr gut, das HQ-AF ist herausragend und schnell. Das Kartendesign ist leider nicht mehr so schlank wie man es von ATI gewohnt war und bei der Lautstärke kommt der Standardkühler gleich gar nicht in Frage.

Lightning
2005-10-05, 16:09:52
bei computerbase war der Catalyst glaube ich @ quality vs nv HQ


Treibereinstellungen: nVidia-Grafikkarten

* Systemleistung: Hohe Qualität
* Vertikale Synchronisierung: Aus
* MipMaps erzwingen: keine
* Trilineare Optimierung: Aus
* Anisotrope Mip-Filter-Optimierung: Aus
* Optimierung des anisotropen Musers: Aus
* Negativer LOD-Bias: Clamp
* Gamma-angepasstes AA (G70): Ein
* Transparenz AA (G70): Aus


Treibereinstellungen: ATi-Grafikkarten

* Catalyst A.I.: Standard
* Mipmap Detail Level: Quality
* Wait for vertical refresh: Always off
* Adaptive Anit-Aliasing: Off
* High Quality AF: Off
* Truform: Always Off


Ich weiß zwar nicht, warum bei ATi das "Mipmap Detail Level" nur auf "Quality" stand, aber einen Performanceunterschied sollte das nicht machen. Ansonsten dürfte die BQ absolut vergleichbar sein.

edit: Bin mal wieder zu spät.

Blaze
2005-10-05, 16:10:01
Was hat das Eine mit dem Anderen zu tun? Du hast Crossfire noch nicht selbst getestet und redest dein SLI schön. Crossfire wird die neue Referenz werden, da kann NV machen was sie wollen.

Wobei sie den Begriff SLI eh vergewaltigt haben. Schande über NV :mad:

Uuuuhhh...troll woanders Fanboy

*moved to ignorelist*

SKYNET
2005-10-05, 16:10:53
sag mal du bist ja ein richtiger NV Sklave.

Wartet ab mit Crossfire holt sich ATI die Krone zurück. Kommen ja mit X850XT CRossfire fast schon an NV 7800GTX SLI ran.


die effektivität von CF ist deutlich schlechter als die von SLI, von der kompatibilität wollen wir dabei noch nichtmal sprechen!

thade
2005-10-05, 16:11:04
quake 4 wird nur wieder der erfolgreichste online ego-shooter, aber interessiert ja keinen.... man kann es sich auch so zurechtlegen wie es einem passt...

bei der Knuddel Plastik Optik? Niemals. Q4 wird niemals ein erfolgreicher Online Shooter werden.

Der beste Online Shooter ist immer noch CS1.6 und CS:S !!!

Q4 kommt nie an das alte Q3 ran.

Fadl
2005-10-05, 16:11:08
jupp, also ein vorteil für die ATI karten, und dennoch haben die NV karten sie geschlagen! :cool:

Wird dir das nicht langsam selbst peinlich?
Es gibt auch andere Reviews als von Computerbase...

Horimoto
2005-10-05, 16:11:15
http://www.extremetech.com/article2/0,1697,1867128,00.asp
wo ist der 512MB Vorteil?
XT gleichauf mit GTX, etwas drüber.

kaufbarometer:

X1800XL [===========[=]====]7800GTX
oc ergebnisse abwarten.........

deekey777
2005-10-05, 16:12:57
Und was ist mit der 6800NU? Die kostet 100 € weniger und ist nicht viel langsamer, manchmal auch schneller. Oder was ist mit der X800GT? Oder X800? Oder X800GTO? Die X1600XT ist doch bis auf jetzt SM3 nicht viel schneller als diese Karten. Oder was ist mit einer 6800GT für 230 €? Oder eine X800PRO für 190 €? Oder X800XTPE für 240 €? Wie passt da eine teurere X1600XT rein?

Hat es igrendeinen Einfluß auf die Performance, wenn die X1600XT im November, wenn sie ausgeliefert wird, zunächst teurer sein wird? Auch die 6600GT wurde zu ihrem Start über 200€ verkauft, die 6800Vanilla kostete um die 300,... . Das können wir den ganzen Tag machen. Doch es wurde schon mehrmals angesprochen, daß die Preise am Launchtag immer hoch sind, sich aber später normalisieren.

Blaze
2005-10-05, 16:13:28
http://www.extremetech.com/article2/0,1697,1867128,00.asp
wo ist der 512MB Vorteil?
XT gleichauf mit GTX, etwas drüber.

Naja ich find 20 FPS mehr bei 1280 /4xAA/8xAF sind schon ein gewisser Vorteil...

Irgendwas fluppt da in der Demo auch noch nicht richtig wenn man sich anguckt dass 1600x1200 4xAA/8xAF genauso schnell ist... :rolleyes:

http://common.ziffdavisinternet.com/util_get_image/11/0,1425,i=115590,00.gif

A.Wesker
2005-10-05, 16:14:31
bei der Knuddel Plastik Optik? Niemals. Q4 wird niemals ein erfolgreicher Online Shooter werden.

Der beste Online Shooter ist immer noch CS1.6 und CS:S !!!

Q4 kommt nie an das alte Q3 ran.

und cs ist auch ein ego-shooter :D

thade
2005-10-05, 16:14:44
Uuuuhhh...troll woanders Fanboy

*moved to ignorelist*

jetzt gehen Dir die Argumente aus. Aber dieses Forum ist voller NV Boys.

bardh
2005-10-05, 16:14:55
Gleichauf oder mit einem Vorteil zugunsten der ATI Karte. Sieh es doch einfach ein! Oder ist es so schwer das zuzugeben?
Welche Karte hier und da erhältlich war spielt für das jetzt und heute keine Rolle. Wer sich bald eine Karte kauft der kann sich halt zwischen beiden entscheiden. Oder glaubst du jemand kauft sich aus dem Grund das es die NVidia ja schon länger gibt keine ATI Karte?
Freut euch doch das beide Karten oft dicht beieinander liegen. Da kann man dann nicht soviel verkehrt machen. Wer auf die bessere Bildqualität und einige weitere Features wert legt kauft die ATI. Wer bei Doom3 jedes Frame braucht die NVidia. Fanboys kaufen eh nur Karten "ihrer" Marke.

Denkst du ich bin ein NV Fanboy?
Nur geht ATI mit 16 Pipes manchmal einfach die puste aus!

Selbst in Half Life 2 ist die 7800 GTX in hohen Auflösungen vorne! HALF LIFE 2 was eigentlich sehr sehr für ATI sprechen sollte!

Lightning
2005-10-05, 16:15:10
Wird dir das nicht langsam selbst peinlich?
Es gibt auch andere Reviews als von Computerbase...

Btw. finde ich nicht, dass die X1800 XT bei Computerbase geschlagen wird, für mich sieht das nach einem Gleichstand zur 7800 GTX aus. Die X1800 XL hingegen tut sich etwas schwerer gegen die 7800 GT.
Insgesamt liegt die Performance der neuen HighEnd-Karten aber auf einem Niveau, imho.

Fadl
2005-10-05, 16:15:39
Woran liegt es eigentlich genau das die ATI Karte bei Games wie FEAR oder auch COD2 so deutlich vor der NVidia Karte liegt?

Horimoto
2005-10-05, 16:16:01
Bei cod2 gibts probs, ich tippe mal, die 1280x1024 4xAA balken sind falsch und gehören "länger" ^^

512MB RAM.........

OC benhies der XL........

Raff
2005-10-05, 16:16:42
Sagt mal, könnt ihr mit dem kindischen Anfeinden aufhören? Mein Gott, langsam nervt es wirklich. Kaum gibt's mal Konkurrenz, gehen die Nvidia-Anhänger auf die Palme. :| Etwas Neutralität täte Einigen hier echt mal ganz gut. Schaut euch alles in Ruhe an, wartet die nächsten Tage ab und redet dann nochmal.

Ich bin nicht beeindruckt, aber mir gefällt die Karte besser als noch vor einer Woche. Das liegt zum einen daran, dass es nun AAA gibt (auch auf alten Karten) und zum anderen, dass AA mit HDR funktioniert.

Die BQ-Krone scheint Ati zu haben -- und das zählt zumindest für mich stark.

MfG,
Raff

Blaze
2005-10-05, 16:17:09
Woran liegt es eigentlich genau das die ATI Karte bei Games wie FEAR oder auch COD2 so deutlich vor der NVidia Karte liegt?

Bei CoD2 liegts definitiv an der Demo...

doppelschwoer
2005-10-05, 16:17:32
Die 1800XT scheint ja der volle Renner zu sein. Sieht aus als ob ATI nun wieder die schnellste GPU hat.

Aber wie sieht es im wichtigeren oberen Mainstream markt aus. Die 1600XT hat nen viel zu grossen Abstand zur 1800.
Da greift doch jeder zu ner 250€ 6800GT als zu einer 1600XT.

Sieht ein bischen danach aus als ob ATI nur ne Brutal schnelle Graka bauen wollte, um die 1600 und 1300 besser verkaufen zu können. Schade eigentlich.

MechWOLLIer
2005-10-05, 16:17:33
Ich weiß zwar nicht, warum bei ATi das "Mipmap Detail Level" nur auf "Quality" stand, aber einen Performanceunterschied sollte das nicht machen. Ansonsten dürfte die BQ absolut vergleichbar sein.
edit: Bin mal wieder zu spät.
Eieiea, dummer Fehler von mir, ich habe das CCC falsch verstanden:)

Natürlich steht das Mipmap Detail Level auf High Quality. Jedoch habe ich irgednwie nur die Bezeichznung Quality gelesen, die ja die Richtung angibt, in die man den Slider schiebt:D
Werde ich direkt mal ändern:)

Matrix316
2005-10-05, 16:17:44
Hat es igrendeinen Einfluß auf die Performance, wenn die X1600XT im November, wenn sie ausgeliefert wird, zunächst teurer sein wird? Auch die 6600GT wurde zu ihrem Start über 200€ verkauft, die 6800Vanilla kostete um die 300,... . Das können wir den ganzen Tag machen. Doch es wurde schon mehrmals angesprochen, daß die Preise am Launchtag immer hoch sind, sich aber später normalisieren.

Schon, aber als die 6600GT 200 € und die 6800NU 300 € gekostet haben, waren sie auch wesentlich schneller als die Vorgängerkarten. Die X1600XT ist TEURER und langsamer als vergleichbare. Gegen eine 6800NU hatte die 9800XT oder FX 5900 Ultra keine Chance. Selbst gegen die 6600GT sahen die alten Karten schlecht aus. Hier wird die 250 € X1600XT von einer 200 € X800 PRO oder 250 € X800XL abgezogen in eigentlich fast allen Bereichen.

Mr. Lolman
2005-10-05, 16:18:30
Tw. geht sie ja ganz schön ab :eek:

http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/fc1600.gif http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/c1600.gif

http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/bf21600.gif

fizzo
2005-10-05, 16:18:38
Selbst in Half Life 2 ist die 7800 GTX in hohen Auflösungen vorne! HALF LIFE 2 was eigentlich sehr sehr für ATI sprechen sollte!

dann kann ich anscheinend nicht richtig lesen.....

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/20/#abschnitt_half_life_2


zum stromverbrauch...unter last sind die "streithaehne" niemlich gleich auf....

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/25/#abschnitt_stromverbrauch

Blaze
2005-10-05, 16:19:51
Tw. geht sie ja ganz schön ab :eek:

http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/fc1600.gif http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/c1600.gif

http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/bf21600.gif


Wer spielt denn in so kranken Auflösungen? Kaum jemand denke ich...

Fadl
2005-10-05, 16:20:57
Selbst in Half Life 2 ist die 7800 GTX in hohen Auflösungen vorne! HALF LIFE 2 was eigentlich sehr sehr für ATI sprechen sollte!

http://www.driverheaven.net/reviews/r520reviewxvxv/HL2.htm

Sieht mir da aber nicht unbedingt nach aus. Allenfalls ein Patt.

Lightning
2005-10-05, 16:21:23
Eieiea, dummer Fehler von mir, ich habe das CCC falsch verstanden:)

Natürlich steht das Mipmap Detail Level auf High Quality. Jedoch habe ich irgednwie nur die Bezeichznung Quality gelesen, die ja die Richtung angibt, in die man den Slider schiebt:D
Werde ich direkt mal ändern:)

Ah, gut, dass sich das als ein Missverständnis herausgestellt hat. :)

Ansonsten übrigens ein schöner Artikel, soweit ich das in der kurzen Zeit erkennen konnte.

thade
2005-10-05, 16:21:50
die effektivität von CF ist deutlich schlechter als die von SLI, von der kompatibilität wollen wir dabei noch nichtmal sprechen!

woher hast du Das? Hast du etwa beides schon getestet :rolleyes:

A.Wesker
2005-10-05, 16:22:10
Tw. geht sie ja ganz schön ab :eek:

http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/fc1600.gif http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/c1600.gif

http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/bf21600.gif


http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/pf1600.gif

http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/r1600.gif

http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/d32048.gif


:D

die größte enttäuschen in meiner sicht ist es, daß die x1800 XT in riddick, AoE 3, Doom 3 gerade einmal das niveau einer 6800 Ultra erreicht :D

bardh
2005-10-05, 16:22:40
Wer spielt denn in so kranken Auflösungen? Kaum jemand denke ich...

Aber erstaunlich wie gut die X1800 XT abschneidet!

*Leute bitte meine Worte jetzt momentan nicht zu ernst nehmen, lasse mich nur von einem Previw etwas zu fest überzeugen*

Gaestle
2005-10-05, 16:22:59
Naja, da hat ja ATi anscheinend gut zugelangt.

AF verbessert, SM3, AAA, HDR und konkurrenzfähige Performance. So stellt man sich ein gelungenes Produkt in etwa vor.

Was man sich nicht vorstellt, sind Beugungen der DX9Specs, was es den Entwicklern schwerer macht und damit die Einführung sicher behindert.

@Demirug:
Warum 3 SM3-Versionen? PVR, NV und jetzt ATi oder wie? Oder Software-Renderer, NV und ATi?

Grüße

Rente
2005-10-05, 16:23:04
Die BQ-Krone scheint Ati zu haben -- und das zählt zumindest für mich stark.
Genau meine Meinung. Solang ATi die bessere Bildqualität bietet können sie im Durchschintt auch ruhig 5-10% langsamer sein und ich würde sie trotzdem kaufen.
P.S.: Könnte man eine Graka-Abfrage bei der Forum-registrierung einbauen um Fanboys vom Flamen abzuhalten? :rolleyes:

thade
2005-10-05, 16:23:40
http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/pf1600.gif

http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/r1600.gif

http://firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/d32048.gif


:D

die größte enttäuschen in meiner sicht ist es, daß die x1800 XT in riddick, AoE 3, Doom 3 gerade einmal das niveau einer 6800 Ultra erreicht :D


Wen jucken diese 3 total schlechten Games???

Horimoto
2005-10-05, 16:24:25
http://www.hothardware.com/viewarticle.cfm?articleid=734

Gaestle
2005-10-05, 16:24:43
Tw. geht sie ja ganz schön ab :eek:



Naja, 512MB vs. 256MB Ram, oder nicht?

Grüße

Avalox
2005-10-05, 16:25:15
die größte enttäuschen in meiner sicht ist es, daß die x1800 XT in riddick


Ist Riddick ein OpenGL Spiel.

A.Wesker
2005-10-05, 16:26:41
Wen jucken diese 3 total schlechten Games???
es geht nicht um "sind doch eh scheiß games", das soll mal jeder für sich selbst ausmachen

Wechselbalg
2005-10-05, 16:27:53
Ich würde auch sagen, dass sich die Karten von der Perfomance her im Gesamtbild nicht viel nehmen werden und man wohl erst mal die nächsten Treibergenerationen von beiden Seiten abwarten sollte, ehe man endgültig ein Urteil vornimmt.

Momentan würde mir zum Beispiel ATI ob des AFs und der für mich leicht besser anmutenden AA Modi sowie der etwas höheren Perfomance in sehr hohen Einstellungen besser gefallen, doch sollte der Stromverbrauch wirklich so hoch sein, würde ich das ganze dennoch nicht kaufen.

So werden die nächsten Treibergenerationen zeigen ob ATI da vielleicht noch ein Powermanagement mitbringt und Nvidia vielleicht auch besseres AF anbieten kann und danach wird man eher entscheiden können. Gleichzeitig wird man sehen wieviel Perfomance bei beiden noch rausgeholt werden kann und auch realistischere Marktpreise als am Launchtag sehen, sowie auch eine Reaktion seitens Nvidias.

Also abwarten, Tee trinken und sich drüber freuen, dass es eigentlich wieder so schön knapp ist, dass der Kunde gute Auswahl hat und die Preise vielleicht auch sinken, weil es keinen klaren Sieger gibt.

Gaestle
2005-10-05, 16:28:08
die größte enttäuschen in meiner sicht ist es, daß die x1800 XT in riddick, AoE 3, Doom 3 gerade einmal das niveau einer 6800 Ultra erreicht :D

In irgendeinem Review stand, dass AoE sowieso noch zickt, D3 ist halt NV-Domäne und Riddick ist OGL - auch 'ne NV-Domäne.

Aber irgendwie gibt's den selben Stand wie vorher:
hier und dort NV vorn,
woanders liegt ATi vorn. Und es sind wohl noch die selben Games wie bei X850 vs. 6800U ...

Und ATi hat ein schickes AF...

Mr. Lolman
2005-10-05, 16:29:18
die größte enttäuschen in meiner sicht ist es, daß die x1800 XT in riddick, AoE 3, Doom 3 gerade einmal das niveau einer 6800 Ultra erreicht :D

Das Problem ist womöglich auch, dass selbst mit dem 78.03 die G70 Chips nur brilinear unter OpenGL filtern...

Spasstiger
2005-10-05, 16:33:03
Naja, 512MB vs. 256MB Ram, oder nicht?

Grüße

Joa, das dürfte mit ausschlaggebend sein. Aber in extrem hohen Auflösungen haben auch schon die X800/X850-XT-PE -Karten zugelangt. Liegt als auch an der Architektur. Ob man so hohe Auflösungen braucht, ist die andere Frage, macht eh nur bei stark CPU-limitierten Spielen wie HL2 Sinn.
Bei der COD 2 Demo kommt der Vorteil, insbesondere in 1280x1024 mit 4xaa/16:1 AF übrigens sehr stark vom Grafikspeicher, das hat auch schon der Vergleich X800 XL 512 MB vs. X850 XT PE 256 MB gezeigt.

SKYNET
2005-10-05, 16:34:28
Tw. geht sie ja ganz schön ab :eek:

http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/fc1600.gif http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/c1600.gif

http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/images/bf21600.gif


512MB ahoi!

ich poste die gleichen auflösungen dann nochmal wenn sie die GTX 512MB getestet haben... =)

SKYNET
2005-10-05, 16:35:07
woher hast du Das? Hast du etwa beides schon getestet :rolleyes:


evtl. solltest du dir mal nen paar reviews von CF anschauen.... :rolleyes:

dildo4u
2005-10-05, 16:35:13
Das Problem ist womöglich auch, dass selbst mit dem 78.03 die G70 Chips nur brilinear unter OpenGL filtern...
Hmm nur erklärt das nicht warum sich die X1800XT nichtmal von der X850XT PE absetzen kann bei Doom 3 und The Chronicles of Riddick.

HanSolo78
2005-10-05, 16:36:00
Also ich find die x800xt soweit ganz gelungen!
Bessere Bildqualität, gute Features und eigentlich gleich auf mit ner 7800GTX bis auf wenige Ausnahmen.
Mal ist die Ati schneller, mal die NVidia.
Das sie in den OpenGL Spielen an NVidia nicht rankommt war eigentlich zu erahnen.
Allerdings IMHO eh nicht schlimm.
Was mich ein wenig stutzig macht ist die "abgeänderte" SM3 Implementierung.
Wieso haben die das nicht gleich richtig gemacht?
Naja.. ich bin mit meiner Karte eh noch zufrieden. Werde auf die nächste Gen. warten,
da sich ein Performanceplus von ca. 10 bis 15% nicht lohnt.

Coda
2005-10-05, 16:37:53
Hmm nur erklärt das nicht warum sich die X1800XT nichtmal von der X850XT PE absetzen kann bei Doom 3 und The Chronicles of Riddick.Ich fürchte, dass liegt immer noch am schlechteren OpenGL-Treiber von ATi und nicht an der Hardware.

A.Wesker
2005-10-05, 16:38:27
Joa, das dürfte mit ausschlaggebend sein. Aber in extrem hohen Auflösungen haben auch schon die X800/X850-XT-PE -Karten zugelangt. Liegt als auch an der Architektur. Ob man so hohe Auflösungen braucht, ist die andere Frage, macht eh nur bei stark CPU-limitierten Spielen wie HL2 Sinn.
Bei der COD 2 Demo kommt der Vorteil, insbesondere in 1280x1024 mit 4xaa/16:1 AF übrigens sehr stark vom Grafikspeicher, das hat auch schon der Vergleich X800 XL 512 MB vs. X850 XT PE 256 MB gezeigt.
hohe auflösungen machen bei jedem gutem CRT sinn. ich zocke zb. jedes games in 1920x1200 2AA/16AF oder 2048x1536 2AA/16AF (sieht einfach deutlich besser aus). aus diesem grund habe ich mir von der x1800xt mehr versprochen, da man dann auch in zunkunft diese auflösung ohne SLI nutzen könnte, aber dazu ist die x1800xt zu schwach (derzeit ist das mit der GTX noch kein problem).

reunion
2005-10-05, 16:39:11
http://pics.computerbase.de/artikel/495/diagramme/26.png

An der schon lange spekulierten, überlegenen Shaderpower des G70 scheint ja nicht wirklich was dran zu sein.

Redneck
2005-10-05, 16:39:50
Das Problem ist womöglich auch, dass selbst mit dem 78.03 die G70 Chips nur brilinear unter OpenGL filtern...

Mal eine andere Frage... wer spielt hier heute noch DOOM 3 ?
Ich benutz das nur noch zum benchmarken.
AoE 3... toll.. das ist ja auch ein Titel bei dem man sehr hohe Frameraten benötigt %-)

Habe irgendwo gelesen, daß ATI in Kuerze noch einen neuen Treiber nachschieben will... um den neuen Wundertreiber von NV auszustechen ;-)

Lightning
2005-10-05, 16:41:22
Das Problem ist womöglich auch, dass selbst mit dem 78.03 die G70 Chips nur brilinear unter OpenGL filtern...

Das würde aber niemals derartige Performanceunterschiede hervorrufen.
Ich bleibe dabei: Doom 3 und Riddick sind weiterhin Vorzeigebeispiele für nVidia, ebenso gibt es solche natürlich auch für ATi. Und insgesamt hält sich die Performance imho in der Waage.

Aber die Performance ist sicherlich nicht das einzige Kriterium, nach dem ich eine Grafikkarte beurteilen würde. So sieht es derzeit für mich danach aus, als hätte ATi bei der BQ die Nase vorn - dafür sieht es z.B. beim Stromverbrauch weniger gut aus. Auch das Featureset würde ich differnziert bewerten. Auf der einen Seite bietet nVidia immer noch mehr AA-Modi an, auf der anderen gibt es bei ATi scheinbar theoretisch HDR mit AA (inwiefern sich das praktisch nutzen lässt, wird sich noch zeigen).

Momentan könnte ich mich noch für keine der Karten entscheiden. Ich würde da noch weitere Tests (vor allem zur BQ) sowie die Preisentwicklung abwarten.

Auf jeden Fall festhalten würde ich aber, dass ATi im HighEnd-Bereich nun endlich ein konkurrenzfähiges, interessantes Produkt auf dem Markt hat. Und das sollte sich doch zum Wohle aller entwickeln: Mehr Auswahl für den Verbraucher, mehr Preiskampf unter den Herstellern. :)

deekey777
2005-10-05, 16:43:10
Schon, aber als die 6600GT 200 € und die 6800NU 300 € gekostet haben, waren sie auch wesentlich schneller als die Vorgängerkarten. Die X1600XT ist TEURER und langsamer als vergleichbare. Gegen eine 6800NU hatte die 9800XT oder FX 5900 Ultra keine Chance. Selbst gegen die 6600GT sahen die alten Karten schlecht aus. Hier wird die 250 € X1600XT von einer 200 € X800 PRO oder 250 € X800XL abgezogen in eigentlich fast allen Bereichen.

Lassen wir mal den Preis außen vor: Wenn du dir die Daten der X1600er anschaust, dann siehst du, daß sie der 6800er unterlegen ist, doch trotzdem kann sie mit dieser je nach Spiel/Benchmark mithalten.
Ich habe schon im seligen R520 Thread scherzhaft geschrieben, daß die X1600 das ist, was die X600 in der letzten Generation war und die wirkliche Mittelklasse noch kommen wird. Im Vergleich zu ihrem großen Bruder, dem R580, ist sie nur ein Viertel, höchstens ein Drittel davon.

Spasstiger
2005-10-05, 16:43:20
hohe auflösungen machen bei jedem gutem CRT sinn. ich zocke zb. jedes games in 1920x1200 2AA/16AF oder 2048x1536 2AA/16AF (sieht einfach deutlich besser aus).

Hm, ich würde da eher in 1600x1200 mit 6xMSAA + AAA + 16:1 HQ-AF zocken. Das wären jedenfalls meine bevorzugten Grafikeinstellungen mit einer X1800 XT.
Bei einer 7800 GTX würde ich mich für 1600x1200 mit 8xS AA + TAA + 16:1 AF (@HQ) entscheiden, dürfte aber vermutlich einen Tick schlechter laufen.

Diese Einstellungen würden imo auch deutlich besser aussehen als 2048x1536 mit 2xAA.

Tomcat70
2005-10-05, 16:43:37
Das SM3.0 wird nicht auf maximal möglicher Stufe angeboten (keine Vertex-Texturen und damit keine Physikspielereien auf dem Grafikchip)

wie, was, wann? bitte? gibts da irgendeinen sinnvollen/wahren hintergrund dazu?

Spasstiger
2005-10-05, 16:44:52
wie, was, wann bitte?

Aths weiß da mehr. Er hat das in irgendeinem Thread auf jeden Fall erwähnt.

dildo4u
2005-10-05, 16:44:59
wie, was, wann? bitte? gibts da irgendeinen sinnvollen/wahren hintergrund dazu?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3544726&postcount=45

Tomcat70
2005-10-05, 16:45:28
Aths weiß da mehr. Er hat das in irgendeinem Thread auf jeden Fall erwähnt.

fällt derzeit für mich unter die kategorie "absoluter nonsens".

A.Wesker
2005-10-05, 16:45:31
Hm, ich würde da eher in 1600x1200 mit 6xMSAA + AAA + 16:1 HQ-AF zocken. Das wären jedenfalls meine bevorzugten Grafikeinstellungen mit einer X1800 XT.
Bei einer 7800 GTX würde ich mich für 1600x1200 mit 8xS AA + TAA + 16:1 AF (@HQ) entscheiden, dürfte aber vermutlich einen Tick schlechter laufen.

Diese Einstellungen würden imo auch deutlich besser aussehen als 2048x1536 mit 2xAA.
kommt auf den monitor an. auf meinem (24" 16:10) sieht 1920x1200 + AA/AF am besten aus.

Mumins
2005-10-05, 16:46:36
Lassen wir mal den Preis außen vor: Wenn du dir die Daten der X1600er anschaust, dann siehst du, daß sie der 6800er unterlegen ist, doch trotzdem kann sie mit dieser je nach Spiel/Benchmark mithalten.
Ich habe schon im seligen R520 Thread scherzhaft geschrieben, daß die X1600 das ist, was die X600 in der letzten Generation war und die wirkliche Mittelklasse noch kommen wird. Im Vergleich zu ihrem großen Bruder, dem R580, ist sie nur ein Viertel, höchstens ein Drittel davon.

Ich denke die X1600 wird ihre leistung erst mit den kommenden Games auspielen können.

Coda
2005-10-05, 16:47:17
http://pics.computerbase.de/artikel/495/diagramme/26.png

An der schon lange spekulierten, überlegenen Shaderpower des G70 scheint ja nicht wirklich was dran zu sein.Kommt drauf an. Wenn ausschließlich gerechnet wird ist G70 vorne, wenn Texturfetches dazukommen dann eher R520.

In Zukunft wird es aber immer mehr Arithmetik geben, z.Z. reicht die Arithmetik-Leistung des R520 wohl sehr gut aus.

dildo4u
2005-10-05, 16:48:01
Ich denke die X1600 wird ihre leistung erst mit den kommenden Games auspielen können.
Und die Games sind zu anspruchsvoll damit man mit dieser Mid Klass Karte gute FPS bei vernünftigen Auflösungen ereichen könnte es ist und Bleibt eine mid range karte mit 128Bit Speicherinterface.

Spasstiger
2005-10-05, 16:49:12
fällt derzeit für mich unter die kategorie "absoluter nonsens".

Es war Demirug, der das erwähnt hat. Aths hat den Beitrag von Demirug nur kommentiert.
Hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3544875#post3544875

Für die Klickfaulen:
ATI hat eine Lücke gefunden die es erlaubt in den Caps zwar Vertextexturen anzubieten es aber gleichzeitig unmöglich zu machen es wirklich zu benuten. Die Grundcaps behaupten das Vertextextueren gehen allerdings hat keines der Textureformate das passenden Flag das anzeigt das es für Vertextexturen nutzbar ist. So kann man zwar Shader mit VT anlegen aber keine der Texturen auf einen Vertexsampler legen.

Aquaschaf
2005-10-05, 16:49:29
Gute Texturfilter und ein 6xRGMS/6xRGSS-AA Modus - sign me in :)

Da ist es mir glatt egal wenn G70 durchschnittlich etwas schneller ist.

James Ryan
2005-10-05, 16:51:12
Video der neuen ATI Techdemo ToyShop.

http://www2.ati.com/multimedia/radeonx1k/ATI-Demo-ToyShop-v1.1.zip

:eek:
Absolut beeindruckend und sehenswert! Das möchte ich mal in Echtzeit sehen, müsste auf meiner Gf 6800 GT ja eigentlich auch laufen.
Aber im Gegensatz zu den lahmen und hässlichen NVIDIA Demos sind die neuen ATi-Demos grandios!

MfG :cool:

[dzp]Viper
2005-10-05, 16:51:45
:eek:
Absolut beeindruckend und sehenswert! Das möchte ich mal in Echtzeit sehen, müsste auf meiner Gf 6800 GT ja eigentlich auch laufen.
Aber im Gegensatz zu den lahmen und hässlichen NVIDIA Demos sind die neuen ATi-Demos grandios!

MfG :cool:

habs auch eben geguckt :up: gefällt mir sehr sehr gut

dildo4u
2005-10-05, 16:54:33
Aber im Gegensatz zu den lahmen und hässlichen NVIDIA Demos sind die neuen ATi-Demos grandios!

MfG :cool:
Also mir haben die neuen G70 Demos auch sher gefallen.

Mumins
2005-10-05, 16:55:40
Dafür brauchst du

a) ein Kraftwerk neben deinem rechner
b) Ohropax
c) viel nerven weil die technik noch lang nicht so ausgereift ist wie SLI

Also, wer tut sich DAS bitte freiwillig an? :|

Hast du das auch gesagt als du nen NV30/35 NV40 im Rechner hattest, wer das gewohnt war, der wird auch den Lärm und Stromverbrauch des R520 ertragen können.

Blaze
2005-10-05, 16:55:56
Ich würd sagen bei den Demos stehts 60:40 für ATi...aber auch nur da :D

Super Grobi
2005-10-05, 16:56:38
Ich würd sagen bei den Demos stehts 60:40 für ATi...aber auch nur da :D

Du kannst es aber auch nicht lassen etwas gegen ATi zu flamen, oder?

SG

Demirug
2005-10-05, 16:56:51
@Demirug:
Warum 3 SM3-Versionen? PVR, NV und jetzt ATi oder wie? Oder Software-Renderer, NV und ATi?

Grüße

PVR? Gibt es da einen PC Chip?

Der Softwarerenderer interesiert nicht wirklich.

Ich muss aus technischen Gründen auch noch etwas die Umgebung ausserhalb der reinen Schader mitzählen. deswegen sind es 3 SM3 Modele.

- Full (mit FP16 Filter und Blending + VT)
- No HDR (Kein FP16 Filter und Blending aber VT)
- ATI (FP16 Blending; Kein Filter; Kein VT)

Das HDR AA spielt da keine Rolle da AA kein Einfluss auf den Shadercode hat.

Aus dem Grund bin ich ja wie gesagt auch noch skeptisch was alle HDR Benchs mit dem R520 angeht. Bin nämlich nicht sicher in wie weit die Spiele den fehlenden FP16 Filter korrekt berücksichtigen.

(del676)
2005-10-05, 16:56:52
oh man
extreme ausreisser nach unten - riddick? lahmer als eine 6800 ultra! und das MIT AA/AF

Blaze
2005-10-05, 16:58:20
Hast du das auch gesagt als du nen NV30/35 NV40 im Rechner hattest, wer das gewohnt war, der wird auch den Lärm und Stromverbrauch des R520 ertragen können.

Der Lärm ist imho zu vernachlässigen (Ja ich hatte selbst so eine Fön-FX5800U im Case), der Stromverbrauch auf gar keinen Fall. In welchem zustand befindet sich dein Rechner mehr, Idle oder Last?

Weißt bescheid...wohl eindeutig Idle und da schlägt das Teil gnadenlos zu ;)

Spasstiger
2005-10-05, 16:58:57
Ich würd sagen bei den Demos stehts 60:40 für ATi

*g* Ack. Hab eben das Video zur ToyShop-Demo angeschaut und bin beeindruckt. Parallax-Mapping so schön wie noch nie. Auch die ganze Atmosphäre der Szenerie ist sehr beeindruckend.

Blaze
2005-10-05, 16:59:15
Du kannst es aber auch nicht lassen etwas gegen ATi zu flamen, oder?

SG

Ich hab meine Meinung auf den letzten 10 Seiten oft genug kundgetan...dürfte doch gereicht haben oder?

Ich halte von der Karte nix und fertig.

Aquaschaf
2005-10-05, 16:59:22
:eek:

Aber im Gegensatz zu den lahmen und hässlichen NVIDIA Demos sind die neuen ATi-Demos grandios!

MfG :cool:

Ich verstehe nicht was du hast, IMHO waren die G70-Demos wunderschön und eine gute Steigerung gegenüber den vorherigen.

Coda
2005-10-05, 16:59:23
oh man
extreme ausreisser nach unten - riddick? lahmer als eine 6800 ultra! und das MIT AA/AFOpenGL-Treiber. Das ist sicherlich nicht die Hardware und wird sich hoffentlich noch bessern.

Ich werd einfach beide Karten behalten und nach Bedarf auswählen ;)

Super Grobi
2005-10-05, 17:01:10
Ich hab meine Meinung auf den letzten 10 Seiten oft genug kundgetan...dürfte doch gereicht haben oder?

Ich halte von der Karte nix und fertig.

Eben deswegen mein Komentar. Du hast es schon 934768965897 mal gesagt, nun wissen wir DEINE Meinung.

SG

James Ryan
2005-10-05, 17:02:03
Also mir haben die neuen G70 Demos auch sher gefallen.

Mir überhaupt nicht, Luna fand ich persönlich absolut hässlich, viel zu unscharf und zuviel Blurr. Mad Mod Mike war ganz nett.
Aber die Techdemos sind ja auch recht unwichtig. ;)

MfG :cool:

(del676)
2005-10-05, 17:02:43
http://www.hardocp.com/article.html?art=ODIyLDEx

ein Desaster - und das bei HL2

Blaze
2005-10-05, 17:03:06
Eben deswegen mein Komentar. Du hast es schon 934768965897 mal gesagt, nun wissen wir DEINE Meinung.

SG

Wir sind hier in einem Diskussionsforum mein lieber Grobi, solange meine Meinung nicht gegen irgendwelche Forenregeln oder Gesetze verstößt kann ich sie so oft kundtun wie ich möchte.

Wenns dir nicht passt dann überlies es doch bitte einfach und denk dir nix weiter dabei.

Spasstiger
2005-10-05, 17:03:54
http://www.hardocp.com/article.html?art=ODIyLDEx

ein Desaster - und das bei HL2

Die 7800 GT war geoct. Und HL2 ist sicherlich nicht das Über-ATI-Spiel.

Blaze
2005-10-05, 17:04:28
Die 7800 GT war geoct.

Und wenn sie es nicht wäre würde es trotzdem ziemlich schlecht für die XL aussehen in der vermeintlichen ATI-Domäne HL2.

dargo
2005-10-05, 17:04:41
Weißt bescheid...wohl eindeutig Idle und da schlägt das Teil gnadenlos zu ;)
Meine Güte. Jetzt wartet doch erstmal den nächsten Treiber ab. Mir scheint der Stromverbrauch in Idle viel zu hoch zu sein. ATI hat die Stromsparmechanismen mit dem R4x0 erst richtig gebracht. Dann werden sie es doch beim R520 nicht wieder aufgegeben haben. Mir sieht das nach einem Treiberbug aus.

deekey777
2005-10-05, 17:05:22
http://www.hardocp.com/article.html?art=ODIyLDEx

ein Desaster - und das bei HL2

Was für ein Desaster? Lies doch alles: Es ist eine übertaktete 7800GT, deren AF nie die Qualität von ATis HQ AF erreicht.

Und wenn sie es nicht wäre würde es trotzdem ziemlich schlecht für die XL aussehen in der vermeintlichen ATI-Domäne HL2.
Lesen bildet.

Blaze
2005-10-05, 17:05:35
Meine Güte. Jetzt wartet doch erstmal den nächsten Treiber ab. Mir scheint der Stromverbrauch in Idle viel zu hoch zu sein. ATI hat die Stromsparmechanismen mit dem R4x0 erst richtig gebracht. Dann werden sie es doch beim R520 nicht wieder aufgegeben haben. Mir sieht das nach einem Treiberbug aus.

Wäre aber ziemlich schlecht wenn sowas erst beim Launch auffällt...

[dzp]Viper
2005-10-05, 17:05:41
http://www.hardocp.com/article.html?art=ODIyLDEx

ein Desaster - und das bei HL2


wo ist es ein disaster?
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/20/#abschnitt_half_life_2

:D

sry aber das Hardocp Review ist einfach nur schlecht :|

Coda
2005-10-05, 17:05:49
Was hat das Eine mit dem Anderen zu tun? Du hast Crossfire noch nicht selbst getestet und redest dein SLI schön. Crossfire wird die neue Referenz werden, da kann NV machen was sie wollen.

Wobei sie den Begriff SLI eh vergewaltigt haben. Schande über NV :mad:Ohne Karten-Interconnect wage ich das aber mal gewaltig zu bezweifeln.

Redneck
2005-10-05, 17:05:54
http://www.hardocp.com/article.html?art=ODIyLDEx

ein Desaster - und das bei HL2


Spasstiger
2005-10-05, 17:05:56
Und wenn sie es nicht wäre würde es trotzdem ziemlich schlecht für die XL aussehen in der vermeintlichen ATI-Domäne HL2.

Ich weiß nicht, warum HL2 immer als die ATI-Referenz herangezogen wird. Es war doch schon immer recht knapp in dem Game zwischen den GF6800ern und den ATI X800/X850. Nur in sehr hohen Auflösungen (2048x1536) lagen die ATI klar vorne.

kelo
2005-10-05, 17:07:20
PVR? Gibt es da einen PC Chip?

Der Softwarerenderer interesiert nicht wirklich.

Ich muss aus technischen Gründen auch noch etwas die Umgebung ausserhalb der reinen Schader mitzählen. deswegen sind es 3 SM3 Modele.

- Full (mit FP16 Filter und Blending + VT)
- No HDR (Kein FP16 Filter und Blending aber VT)
- ATI (FP16 Blending; Kein Filter; Kein VT)

Das HDR AA spielt da keine Rolle da AA kein Einfluss auf den Shadercode hat.

Aus dem Grund bin ich ja wie gesagt auch noch skeptisch was alle HDR Benchs mit dem R520 angeht. Bin nämlich nicht sicher in wie weit die Spiele den fehlenden FP16 Filter korrekt berücksichtigen.
Jeder Hersteller kocht sein eigenes Süppchen.

@Mods
Dieser Thread verkommt zu einem Troll-Flame-Thread. :(

trollkopf
2005-10-05, 17:08:01
warum werden eigentlich 512 MByte Speicher der X1800-XT mit den 256 MByte der 7800 GTX verglichen ? das kanns doch nicht sein....

(del676)
2005-10-05, 17:08:06
und kaum isses kein 0815 standard game - desaster (is eq2 vielleicht ogl?)
http://www.hardocp.com/article.html?art=ODIyLDE0

[dzp]Viper
2005-10-05, 17:08:09
Ich weiß nicht, warum HL2 immer als die ATI-Referenz herangezogen wird. Es war doch schon immer recht knapp in dem Game zwischen den GF6800ern und den ATI X800/X850. Nur in sehr hohen Auflösungen (2048x1536) lagen die ATI klar vorne.

laut computerbase auch in den anderen Auflösungen....

so sieht man wieder, wie unterschiedlich die Ergebnisse von Review zu Review sein können...

dildo4u
2005-10-05, 17:08:33
Ich fänd übrigenz nicht schlecht wenn im ersten Post in diesem Thread mal eine Linksammlung zu den Reviews reingestellt wird.

Mumins
2005-10-05, 17:10:15
der Stromverbrauch auf gar keinen Fall

Sagt einer mit 2 GTX im SLI.

Blaze
2005-10-05, 17:11:28
und kaum isses kein 0815 standard game - desaster (is eq2 vielleicht ogl?)
http://www.hardocp.com/article.html?art=ODIyLDE0

Wobei da die ATI noch nichtmal AA am laufen hat, die 7800GT hat 2x TRMSAA am Start.

Und trotzdem ist sie überlegen... :rolleyes:

MadManniMan
2005-10-05, 17:11:29
Ich hab meine Meinung auf den letzten 10 Seiten oft genug kundgetan...dürfte doch gereicht haben oder?

Ich halte von der Karte nix und fertig.

Das Problem ist einfach, daß Grafikkarten ein relativ objektivierbares Feld darstellen - und deshalb will eine Meinung wenigstens vernünftig begründet sein, you know?

Coda
2005-10-05, 17:12:22
Viper']wo ist es ein disaster?
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/20/#abschnitt_half_life_2

:D

sry aber das Hardocp Review ist einfach nur schlecht :|HardOCP benützt AAA, vielleicht verursacht das noch den Einbruch momentan.