PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 7800gt oder x1800xl?


aim
2006-01-29, 19:38:39
tag zusammen.

da meine gute alte 6800nu in den nächsten 2 wochen den besitzer wechseln wird, muss was neues her!
bei der gelegenheut werd ich auch gleich auf pcie umsteigen.
so, nun zu meinem eigentlichen anliegen.
welche grafikkarte soll ich mir kaufen? die suchfunktion hat sich regelmäßig aufgehängt :|
die x1800xl ist ja noch etwas teurer als die 7800gt, die ja schon für ~275€ zu haben ist.
lohnt sich denn der aufpreis?
wichtig für mich ist außer der performance auch die lautstärke des lüfters.
von der bildqualität her war ich mit der 6800 eigentlich recht zufrieden, wobei ich selten aa/af benutzt habe, was sich mit der neuen karte aber ändern wird ;) .
der preis sollte 330€ möglichst nicht überschreiten

schonmal danke im voraus.

mfg aim

Popeljoe
2006-01-29, 19:48:36
Imo solltest du deine Fragen wegen des MoBos splitten und im Intel Forum stellen!
P1

aim
2006-01-29, 20:03:49
Imo solltest du deine Fragen wegen des MoBos splitten und im Intel Forum stellen!
P1

hast natürlich recht, sorry. :redface:

mfg aim

Banshee18
2006-01-29, 20:09:03
tag zusammen.

da meine gute alte 6800nu in den nächsten 2 wochen den besitzer wechseln wird, muss was neues her!
bei der gelegenheut werd ich auch gleich auf pcie umsteigen.
so, nun zu meinem eigentlichen anliegen.
welche grafikkarte soll ich mir kaufen? die suchfunktion hat sich regelmäßig aufgehängt :|
die x1800xl ist ja noch etwas teurer als die 7800gt, die ja schon für ~275€ zu haben ist.
lohnt sich denn der aufpreis?
wichtig für mich ist außer der performance auch die lautstärke des lüfters.
von der bildqualität her war ich mit der 6800 eigentlich recht zufrieden, wobei ich selten aa/af benutzt habe, was sich mit der neuen karte aber ändern wird ;) .
der preis sollte 330€ möglichst nicht überschreiten

schonmal danke im voraus.

mfg aim


Dazu hat wohl jeder eine andere Meinung.
Von der Laustärke her sind beide nicht so toll, aber die GT ist imho leiser. Wenn du es wirklich leise willst, solltest du einen anderen Lüfter, wie z.B. den Zalman, kaufen.
Die X1800XL ist mit AA und AF meistens ein wenig schneller und hat die bessere Bildqualität. Ob dir das den Aufpreis wert ist, musst du selbst entscheiden.

Edit: Die XL lässt sich meistens sehr gut übertakten, wenn du dann eine mit 1,4 ns Ram bekommst, sind wahrscheinlich XT-Taktraten möglich.

aim
2006-01-29, 20:29:18
hm... sorry, aber wenn ich wüsste ob die xl den aufpreis wert ist, würd ich hier nicht danach fragen. :)
mein problem ist das ich die bildqualität der xl überhaupt nicht abschätzen kann.
die bessere performance der xl unter aa/af wäre ja schonmal ein kaufargument.

edit: wie groß ist die chance eine mit 1,4ns zu bekommen?

mfg aim

dargo
2006-01-29, 20:36:50
@aim

Ohne Garantieverlust:

http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=29&products_id=77
oder
http://www.grafikkartenpower.de/shop/catalog/product_info.php?cPath=29&products_id=68

Eine X1800XL mit leiserem Lüfter konnte ich nicht finden. :(

Master3
2006-01-29, 20:38:55
Am besten noch 1 bis 2 Wochen warten. ATI hat doch den Preis der XL auf 299$ gesenkt und mal gucken wie die Händler nun den Preis ansetzen. Das dauert ja meistens ne kleine Weile.

aim
2006-01-29, 20:40:10
die hab ich auch schon gesehn und der preis stimmt eigentlich auch.
gibts bei der 7800er reihe eigentlich auch so probleme mit den spannungswandlern wie bei der 6800er reihe. die bekommen dann ja keine luft mehr ab.

mfg aim

aim
2006-01-29, 20:41:32
Am besten noch 1 bis 2 Wochen warten. ATI hat doch den Preis der XL auf 299$ gesenkt und mal gucken wie die Händler nun den Preis ansetzen. Das dauert ja meistens ne kleine Weile.

das mit der preissenkung hab ich auch schon gehört. hoffentlich tut sich in den nächsten 2 wochen was an den preisen.

mfg aim

Banshee18
2006-01-29, 20:44:57
hm... sorry, aber wenn ich wüsste ob die xl den aufpreis wert ist, würd ich hier nicht danach fragen. :)
mein problem ist das ich die bildqualität der xl überhaupt nicht abschätzen kann.
die bessere performance der xl unter aa/af wäre ja schonmal ein kaufargument.

edit: wie groß ist die chance eine mit 1,4ns zu bekommen?

mfg aim
Du solltest mal dieses Review lesen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/
Es geht hier zwar um den R580, aber die GT und die XL werden auch mitgetestet.
Vor allem Rennspiele sollen auf nVidia-Karten sehr flimmern, bei ATI nicht. Auch hast du bei ATI nahezu winkelunabhängiges AF. Hier ein kleines Bildchen dazu:
http://img396.imageshack.us/img396/2442/7800x1800afcomp2ts.gif (http://imageshack.us)

Die Chance, eine XL mit 1,4 ns Speicher zu erwischen, dürfte relativ gering sein, da afaik nur noch 2 ns Speicher verbaut wird. Du könntest aber nach einer gebrauchten schauen. Der 2.0 ns Speicher auf der XL geht seltsamerweise meistens auch relativ hoch, höher als der auf der GT, die afaik auch 2 ns Speicher hat. Schau z.B. mal im HWLuxx-Forum, da gibt es einen langen Overclocking-Thread zur X1800XL. 620 Mhz sind normal locker drin, mit erhöhter Spannung oft auch 700 und mehr. Die Spannung lässt sich ganz leicht durch Tools in Windows erhöhen.
In irgendeinem Shop wurden auch mal XLs mit 1,4ns Speicher verkauft, also mit Garantie, leider weiß ich nicht mehr wo und ob es das Angebot noch gibt.

Dr.Dirt
2006-01-29, 21:26:33
Eine X1800XL mit leiserem Lüfter konnte ich nicht finden. :(

Ich aber :D

http://www.mad-moxx.de/view_artikel.php?id=635

dargo
2006-01-29, 21:39:01
Ich aber :D

http://www.mad-moxx.de/view_artikel.php?id=635
Verdammt, und ich habe schon bei Mad-Moxx gesucht. :hammer:

aim
2006-01-29, 21:46:54
aber zu was für nem preis.... :ucrazy:

so ne xl würde mich aber schon reitzen, mal sehn wie die preise in 2 wochen aussehn.
den lüfter kann man im 2d ja noch runterregeln und zur not ertrag ich halt nen lauten lüfter bevor ich mir ne xl mit silencer für 380€ kaufe :P
edit: hat jemand zufällig n benchmark mit ner x1800xl und ner 6800nu zur hand? nur damit ich weiß worauf ich mich einstellen kann :)

mfg aim

dargo
2006-01-29, 21:55:43
edit: hat jemand zufällig n benchmark mit ner x1800xl und ner 6800nu zur hand? nur damit ich weiß worauf ich mich einstellen kann :)

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_crossfire-edition/4/

Bei der X1800XL wurde der Cat. 5.11 verwendet.

aim
2006-01-29, 22:06:17
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_club3d_radeon_x1800_xt_crossfire-edition/4/

Bei der X1800XL wurde der Cat. 5.11 verwendet.

danke :up:

Banshee18
2006-01-30, 17:18:33
aber zu was für nem preis.... :ucrazy:

so ne xl würde mich aber schon reitzen, mal sehn wie die preise in 2 wochen aussehn.
den lüfter kann man im 2d ja noch runterregeln und zur not ertrag ich halt nen lauten lüfter bevor ich mir ne xl mit silencer für 380€ kaufe :P
edit: hat jemand zufällig n benchmark mit ner x1800xl und ner 6800nu zur hand? nur damit ich weiß worauf ich mich einstellen kann :)

mfg aim
Im 2D-Betrieb ist der Lüfter imho angenehm leise, nur in 3D dreht er öfter mal hoch. Dieser Wechsel der Drehgeschwindigkeit nervt noch viel mehr als die Lautstärke an sich.

Gast
2006-01-30, 18:26:58
Du solltest mal dieses Review lesen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/
Es geht hier zwar um den R580, aber die GT und die XL werden auch mitgetestet.
Vor allem Rennspiele sollen auf nVidia-Karten sehr flimmern, bei ATI nicht. Auch hast du bei ATI nahezu winkelunabhängiges AF. Hier ein kleines Bildchen dazu:
http://img396.imageshack.us/img396/2442/7800x1800afcomp2ts.gif (http://imageshack.us)

Die Chance, eine XL mit 1,4 ns Speicher zu erwischen, dürfte relativ gering sein, da afaik nur noch 2 ns Speicher verbaut wird. Du könntest aber nach einer gebrauchten schauen. Der 2.0 ns Speicher auf der XL geht seltsamerweise meistens auch relativ hoch, höher als der auf der GT, die afaik auch 2 ns Speicher hat. Schau z.B. mal im HWLuxx-Forum, da gibt es einen langen Overclocking-Thread zur X1800XL. 620 Mhz sind normal locker drin, mit erhöhter Spannung oft auch 700 und mehr. Die Spannung lässt sich ganz leicht durch Tools in Windows erhöhen.
In irgendeinem Shop wurden auch mal XLs mit 1,4ns Speicher verkauft, also mit Garantie, leider weiß ich nicht mehr wo und ob es das Angebot noch gibt.Dieses Bildchen zeigt den absoluten Ausnahmefall. In der Regel sind die Unterschiede nicht so gravierend. Performancemäßig liegt die x1800xl auf einem Niveau mit der 7800GT, mal ist die eine, mal die andere schneller. Wobei der Vorsprung der 7800GT bei OpenGL-Spielen schon pervers groß ist, siehe Riddick-Benchmarks. Dazu kommt, dass die 7800GT deutlich günstiger zu haben ist.

alpha-centauri
2006-01-30, 19:24:09
Ich vermisse Payne. Oder hat der Urlaub?

Ich weiss nur, ich bin mit meiner 7800GT zufriedne. GUter preis damit, 1A Leistung, super Leise in 2D und 3D nicht störend. DIe texturen flimmern unter HQ absolut nicht mehr.

Was Atis HQ AF angeht, ist es fraglich, ob man das während dem spielen überhaupt bemerkt.

ich würd wieder zur nvidia greifen.

aim
2006-01-30, 19:46:47
hm... ihr macht es mir echt nicht einfach...
wie siehts mit den defekten lüftersteuerungen der 7800gt´s aus?
wurde das bei den neuen behoben?
diese gt (http://geizhals.at/deutschland/a182789.html) würde mich auch reitzen, leider ist sie nirgends lieferbar ;(

mfg aim

Gast
2006-01-30, 20:45:34
Gibt da noch die XFX 7800GT Extreme Gamer. Die hat höhere Taktraten und dazu den leisen Kühler der GTX, bei dem die Lüftersteuerung auf jeden Fall funktioniert.

MegaManX4
2006-01-30, 21:03:13
Leistungsmäßig nehmen sich beide nichts, ich würde daher zur besseren Bildqualität greifen, wenns preislich ungefähr gleich kommt.

Meine X1800XL lässt sich recht gut übertakten, Speicher ist 2,0ns und läuft ohne Probleme mit 600Mhz, mehr trau ich mich nicht da ich nicht bewusst/unterbewusst irgendwo Pixelfehler wahrnehmen will :| . Ein Fehler ist nämlich schon einer zu viel.

Nerothos
2006-01-30, 21:16:57
wobei ich selten aa/af benutzt habe, was sich mit der neuen karte aber ändern wird ;) .
Dann würde ich auch zur X1800XL greifen. Schon allein das HQ-AF war ein Grund für mich zu grübeln, ob ich meine X850XT verkaufe und mir so ein Gerät hole ;)

Dass man das HQ-AF nur in Ausnahmefällen sieht, halt ich mal für ein Gerücht. Neuere Spiele sollten davon sehr wohl profitieren, da dort nicht nur 90° Geometrie Verwendung findet, wie in älteren Spielen.
Flugsims sprechen auch gut auf das bessere AF an. Nix is ekliger, als ein Matsch-Scharf-Matsch-Wechsel am Boden, wenn man sich mit dem Flugzeug dreht.
In WoW fällt es auch auf, dass da matschige Texturen neben scharfen leben. Mich würde sowas stören. Andere nicht. Is ja auch OK =)

eXodia
2006-01-30, 21:26:39
Ich würd dir die 7800GT empfehlen (y).

StefanV
2006-01-30, 21:31:47
Ich würd dir die 7800GT empfehlen (y).
Ich nicht, denn es spricht nicht viel für die 7800GT, wohl aber für die x1800, insbesondere wenns um die BQ geht.

eXodia
2006-01-30, 21:37:45
Ich nicht, denn es spricht nicht viel für die 7800GT, wohl aber für die x1800, insbesondere wenns um die BQ geht.

Für die X1800 spricht vor allem der Preis [/ironie] :eek:

Die 7800GT ist auf dem gleichen Leistungsniveau, günstiger, hat zwar die etwas schlechtere BQ, aber das hängt imho davon ab ob man das sehen will oder nicht, da die BQ auf HQ imho absolut in Ordnung geht.

Greetz

StefanV
2006-01-30, 21:54:15
Für die X1800 spricht vor allem der Preis [/ironie] :eek:

Die 7800GT ist auf dem gleichen Leistungsniveau, günstiger, hat zwar die etwas schlechtere BQ, aber das hängt imho davon ab ob man das sehen will oder nicht, da die BQ auf HQ imho absolut in Ordnung geht.

Greetz
Die 7800GT ist etwas günstiger, bietet dafür kein übertaktungspotential und die BQ ist @Default ziemlich mies.

Um Volle BQ zu erlangen, muss man erstmal alle Optimierungen einzeln abschalten, dann das ganze auf HQ stellen, was man natürlich mit jedem Treiber machen darf...

Zu allem Überflüss ist die max. mögliche BQ teilweise nicht so pralle, siehe Pic weiter oben.

Dazu kommt, das die x1800 beim zuschalten von FSAA und AF weniger stark einbricht, dank des effizienteren Speichercontrollers.

Alles in allem bietet die X1800 das wesentlich bessere Paket.

eXodia
2006-01-30, 22:04:46
Die 7800GT ist etwas günstiger, bietet dafür kein übertaktungspotential und die BQ ist @Default ziemlich mies.

Um Volle BQ zu erlangen, muss man erstmal alle Optimierungen einzeln abschalten, dann das ganze auf HQ stellen, was man natürlich mit jedem Treiber machen darf...

Zu allem Überflüss ist die max. mögliche BQ teilweise nicht so pralle, siehe Pic weiter oben.

Dazu kommt, das die x1800 beim zuschalten von FSAA und AF weniger stark einbricht, dank des effizienteren Speichercontrollers.

Alles in allem bietet die X1800 das wesentlich bessere Paket.

Die 7800GT ist günstiger, bietet auch genügend Übertaktungspotential (kannst du garantieren das du eine X1800 mit 1,4 ns bekommst, die sind imho alle),ist etwas gleich schnell (in OpenGL > G70) und im Treiber auf 3 Haken zu klicken sollte nicht ein allzu großer Deal sein. Die BQ geht auf HQ imho absolut in Ordnung und das AF der Radeon ist imho den Aufpreis nicht Wert.

Alles in allem bietet die 7800GT das wesentlich bessere Paket.

StefanV
2006-01-30, 22:25:39
Die 7800GT ist günstiger,

Du widerholst dich ;)

bietet auch genügend Übertaktungspotential (kannst du garantieren das du eine X1800 mit 1,4 ns bekommst, die sind imho alle),

1. Nicht so viel wie die x1800
2. bezog ich mich auf die mit 2ns RAM

ist etwas gleich schnell (in OpenGL > G70) und im Treiber auf 3 Haken zu klicken sollte nicht ein allzu großer Deal sein. Die BQ geht auf HQ imho absolut in Ordnung und das AF der Radeon ist imho den Aufpreis nicht Wert.
1. Ist es eine glatte Lüge, das nV unter OGL besser ist (http://forum-3dcenter.de/vbulletin/showthread.php?p=3928271#post3928271), denn in Wahrheit können sie nur ein paar Funktionen zur Schattenberechnung schneller ausführen als ATI Karten.
Wobei du ev. auch erwähnen solltest, das die nV Karten regelrecht wegbrechen, wenn eine Anwendung vom dyn. Branching gebrauch macht.
2. Ist hat die x1800 Vorteile sobald man AF und FSAA dazu schaltet.


Alles in allem bietet die 7800GT das wesentlich bessere Paket.
Nein, denn, wie wir schon festgestellt haben, bietet die x1800 die bessere BQ, von denen man in JEDEM Spiel was hat...

Nicht vergessen sollten wir auch die bessere Videowiedergabe, die Dual Link DVI Ausgänge und die HDCP Unterstützung.

alpha-centauri
2006-01-30, 22:26:45
hm... ihr macht es mir echt nicht einfach...
wie siehts mit den defekten lüftersteuerungen der 7800gt´s aus?
wurde das bei den neuen behoben?
diese gt (http://geizhals.at/deutschland/a182789.html) würde mich auch reitzen, leider ist sie nirgends lieferbar ;(

mfg aim

goil! schon mit zalman drauf. respekt. kauf dir für 3 euro noc hden fanmate.

ah, paynii ist da. nun ja, ich hoff mal, andere leute weisen ihnen in die schranken. ich bekomm jedesmal punkte und verwarnungen, wenn ich das versuche.

eXodia
2006-01-30, 23:01:54
Du widerholst dich ;)

Du wohl nicht (BQ) ;)

1. Nicht so viel wie die x1800
2. bezog ich mich auf die mit 2ns RAM

Kann sein, wobei ich das nicht auf alle Karten in der Welt beziehen würde, und imho hat der Threadstarter OC nicht als Kaufargument genannt.

1. Ist es eine glatte Lüge, das nV unter OGL besser ist (http://forum-3dcenter.de/vbulletin/showthread.php?p=3928271#post3928271), denn in Wahrheit können sie nur ein paar Funktionen zur Schattenberechnung schneller ausführen als ATI Karten.

Wie z.B. Riddick:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_512/17/#abschnitt_the_chronicles_of_riddick

und Doom:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_512/16/#abschnitt_doom_3


Wobei du ev. auch erwähnen solltest, das die nV Karten regelrecht wegbrechen, wenn eine Anwendung vom dyn. Branching gebrauch macht.

Wobei du auch erwähnen solltest das die X1800 kein Vertex-Texturing kann.

2. Ist hat die x1800 Vorteile sobald man AF und FSAA dazu schaltet.

Alles in allem sind sie gleichschnell, da brauchen wir nicht drüber zu reden, da ändert das auch nix dran. Was auf der GT stockt, stockt auch auf der XL, und umgekehrt.


Nein, denn, wie wir schon festgestellt haben, bietet die x1800 die bessere BQ, von denen man in JEDEM Spiel was hat...

Stimmt, sie bietet die bessere BQ, ob diese dir den Preisunterschied wert ist muss jeder selbst entscheiden.

http://geizhals.at/deutschland/a161591.html ~ 270€

http://geizhals.at/deutschland/a169147.html ~ 315€

sind immerhin fast 50€

Nicht vergessen sollten wir auch die bessere Videowiedergabe, die Dual Link DVI Ausgänge und die HDCP Unterstützung.

Hab ich mich nicht damit befasst, aber ich glaub dir das jetzt einfach mal, kannste bitte mal ein paar Links schicken (PN bitte, sonst geht es zu sehr in OT)

Greetz

Gast
2006-01-30, 23:22:45
Ist es eine glatte Lüge, das nV unter OGL besser ist, denn in Wahrheit können sie nur ein paar Funktionen zur Schattenberechnung schneller ausführen als ATI Karten.Jo, klar, guck dir mal Benchmarks von Riddick an. Dann reden wir weiter.

Außerdem fehlen der gesamten x1800-Serie sowohl Filterung von FloatingPoint-Texturen als auch Vertex Texture Fetch. Die Funktionen sind nicht nur langsam, sie FEHLEN KOMPLETT.

StefanV
2006-01-30, 23:25:52
Jo, klar, guck dir mal Benchmarks von Riddick an. Dann reden wir weiter.
Das Posting vom Zeckensack gelesen und den Link verfolgt?

Insbesondere dieses (http://www.beyond3d.com/forum/showpost.php?p=594368&postcount=74)


Dunno about the real-world evidence. See Quake 3, MDK2, Serious Sam 1st and 2nd Encounters or whatnot. That's OpenGL, too, and ATI is very competitive there. Wouldn't one single falsification suffice to shoot down a general conclusion? That's how it works in the world of maths :)

People look too hard for generalizations, and while they make life less complex they are not always useful. ATI not being competitive in Doom 3 does not mean that they stink in OpenGL. It means just the obvious: they're not that good at Doom 3. If they lost out everywhere and there's no explanation on the hardware level, there'd be a point. I don't see that yet.

I'd rather look at this case by case than quickly jumping to conclusions just for the sake of having something that's easy to remember ("ATI+OpenGL=teh suq") but not necessarily true.

Doom 3: stencil fillrate is NVIDIA's stronghold, plain and simple. Also ATI's hierarchical Z implementation doesn't like the depth test function varying too much over the course of a frame.

Riddick: soft shadows with PCF. Wouldn't surprise me at all if the game took advantage of NVIDIA's hardware acceleration which the Radeon line lacks (dunno if the R5xx series has that, even if, it might require a game patch to see it).

Etc.

Then there's the whole issue of texture filtering "optimizations" and related tricks. IIRC one of the recent Catalysts claimed a huge performance increase in IL2 just by forcing the cloud textures to a compressed format. Doing such things is not truly improving the OpenGL driver, but it makes some games run faster.
Who has how many of these "optimizations" in place, and what are the gains? This issue might pretty much bork up any comparison on its own.

And lastly, some people coming off the NV_vertex_array_range path just don't get it. NVIDIA supports some rather peculiar usage models of VBO (allocate buffer object, lock it, fill it, render it once and throw it away again; might as well use immediate mode instead), probably because it is their VAR legacy model. ATI drivers don't support such stuff all that well and rather go for a more pure VBO model (fat storage objects are for reuse).
Both approaches have some benefits over the other, and they are somewhat exclusive. ATI's model bites them more often then not. Btw, if anyone cares, technically it is the correct one IMO. VBOs are overkill and unneccessarily complex for the "one shot" usage. Different methods already exist for this case, they use less memory and are more portable, and are equally limited by AGP/PCIe bandwidth. Many developers fancy VBOs so much that they do it anyway, and it always comes back to bite ATI's reputation.

See Tenebrae, NWN. The Tenebrae technicalities wrt to unsatisfactory VBO performance on ATI hardware were discussed on these boards but I can't find the topic anymore. Might be buried in the old T&H archives. I'm pretty certain it was the issue I just tried to describe.

And finally, there are -- gasp! -- things that ATI's OpenGL driver handles more efficiently than NVIDIA's OpenGL driver. I've seen a Radeon 9200/64MB soundly beat a Geforce 3/64MB because the driver coped much better with many (thousands) small texture objects which were constantly shuffled around and refilled. This is just one scenario, and it does not imply that ATI's OpenGL drivers are better than NVIDIA's, but instead only that this specific case works better. The truth is to be found in the details more often than not IMO. (http://www.beyond3d.com/forum/showpost.php?p=594368&postcount=74)

dargo
2006-01-30, 23:32:51
Was Atis HQ AF angeht, ist es fraglich, ob man das während dem spielen überhaupt bemerkt.

Glaube mir, das merkt man. Besonders in Rennspielen.

Gast
2006-01-30, 23:33:13
Ist durchaus möglich, dass da doch nicht der OpenGL-Treiber schuld ist. Aber wirklich genau wissen wir es auch nicht.

Es ist ja nicht nur in Doom3 u. Riddick so, dass die ATI-Karten so grausig performen, gibt noch ne ganze Reihe mehr OpenGL Spiele die einfach nur beschissen laufen. Dass manche Spiele eine Ausnahme machen, kann auch einfach nur daran liegen, dass ATI sie tod"optimiert" hat.

dargo
2006-01-30, 23:47:15
Wie z.B. Riddick:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_512/17/#abschnitt_the_chronicles_of_riddick

und Doom:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_512/16/#abschnitt_doom_3

Ich kann mir auch die Benchmarks aussuchen. ;)

Quake4:
http://www.xbitlabs.com/articles/video/display/sapphire-x1800xl_13.html

Und da wurde der G70 sogar nur mit Q und nicht HQ gebencht. ;)

Für Riddick scheint sich ATI wohl nicht mehr zu interessieren. Das Game ist einfach zu alt.

Gast
2006-01-30, 23:58:16
Quake4 ist allerhöchstens ein Beispiel für applikationsspezifisches Gecheate. Ach so, ATi cheatet ja nicht, die "optimieren". ;)

Nicht irgendwie eigenartig wie die Leistung von Quake4 vom einen auf den anderen Treiber so zugenommen hat?

Gast
2006-01-30, 23:59:28
Und komm mir jetzt nicht mit dem tollen "Memorycontroller", das Teil ist völlig overhyped...

dargo
2006-01-31, 00:02:12
Und komm mir jetzt nicht mit dem tollen "Memorycontroller", das Teil ist völlig overhyped...
Dann sag mir einfach mal wieso der R4x0 bei OpenGL Games nicht so viel zugelegt hat?

Gast
2006-01-31, 00:07:52
Damit der Abstand zwischen dieser und letzter Generation möglichst groß ist und die Leute schön kaufen. Zumindest würde man das jetzt bei Nvidia sagen^^

Ne, der Speichercontroller ist schon gut, sieht man ja am geringen Einbruch mit aktivem AA, aber er vollbringt garantiert nicht solche Wunder wie den plötzlichen Performanceanstieg bei Q4.

StefanV
2006-01-31, 00:11:43
Damit der Abstand zwischen dieser und letzter Generation möglichst groß ist und die Leute schön kaufen. Zumindest würde man das jetzt bei Nvidia sagen^^

Ne, der Speichercontroller ist schon gut, sieht man ja am geringen Einbruch mit aktivem AA, aber er vollbringt garantiert nicht solche Wunder wie den plötzlichen Performanceanstieg bei Q4.
War es nicht Q4, wo ATi das Profil für 4x AA 'vergessen' hat? :devil:

dargo
2006-01-31, 00:18:54
Damit der Abstand zwischen dieser und letzter Generation möglichst groß ist und die Leute schön kaufen. Zumindest würde man das jetzt bei Nvidia sagen^^

Dann hätte ATI auch DX9 Games künstlich ausbremsen können.


Ne, der Speichercontroller ist schon gut, sieht man ja am geringen Einbruch mit aktivem AA, aber er vollbringt garantiert nicht solche Wunder wie den plötzlichen Performanceanstieg bei Q4.
Ich sag auch nicht, daß der Speichercontroller alleine für diesen Performanceschub verantwortlich ist. Wenn ich es noch richtig in Erinnerung habe, hatte ATI einfach was im Treiber vergessen oder falsch programmiert, so daß mit den älteren Catalyst Treibern ein völlig falsches Bild über die Performance in Quake 4 entstanden ist.

Gast
2006-01-31, 00:25:28
Warum performt die x1800 dann in Q4 so gut, während Doom3 immer noch ziemlich grottig läuft, obwohl der Renderer exakt der gleiche ist? Ich tippe auf gründlichste Handoptimierung...

StefanV
2006-01-31, 00:27:47
Warum performt die x1800 dann in Q4 so gut, während Doom3 immer noch ziemlich grottig läuft, obwohl der Renderer exakt der gleiche ist? Ich tippe auf gründlichste Handoptimierung...
Lies das, was Zecke auf B3D geschrieben hat, das beantwortet deine Frage!!

Kurz: es liegt an den Schatten!

Gast
2006-01-31, 00:33:35
Was unterscheidet die Schatten in D3 von denen in Q4?

Madkiller
2006-01-31, 16:28:43
@alpha-centauri

Für deinen Post den du als Gast verfasst hast, und in dem du mehrmals provozierst und beleidigt hast, bekommst du 3 Punkte. Der Post wurde getrasht.
Regelverstöße, für die man sich ausloggt, werden härter bestraft.

Sowas ist dem Thread selber in keiner Weise dienlich und sogar störend.
Deswegen können wir sowas nicht dulden.
Verzichtet auf sowas in Zukunft also bitte.

Diskussionen über Verwarnungen sind bei Bedarf in einem ggf. zu erstellenden Thread im "über die Webseite und das Forum - Forum" zu führen bzw. per PN mit dem jeweiligen Moderator, denn hier wären sie OT. Siehe dazu auch: Regeln und Richtlinien für die Moderation

Mumins
2006-01-31, 17:12:36
Glaube mir, das merkt man. Besonders in Rennspielen.

So ist es, trotz HQ habe ich langsam Augenkrebs.

Banshee18
2006-01-31, 17:13:25
Alles in allem bietet die X1800 das wesentlich bessere Paket.
Für mich ist sie das auch, alleine schon wegen der besseren Bildqualität (und weil ich Far Cry-Fanboy bin ;( ->AA+HDRR ), aber verallgemeinern sollten man diese deine Aussage nicht. Nicht jeder sieht die starke Winkelabhängigkeit (und das Flimmern) oder stört sich daran.
Die leicht bessere Performance ist zu vernachlässigen, man kann dadurch keine Auflösungsstufe höher gehen, also wayne? Die Möglichkeit, HDRR und AA zu nutzen, bringt ihr bisher auch nichts, außer in Far Cry, und bis andere Spiele kommen, die das können, könnte sie schon wieder zu langsam sein.

Lass uns also ein wenig neutraler bleiben. ;)
Ich bereue den Kauf und den Mehrpreis allerdings nicht und wollte sie niemals gegen eine 7800 GT tauschen. ;)

aim
2006-01-31, 17:54:11
ich würd mir schon gern ne x1800xl holen, aber mindestens 50€ mehr für ne bessere bq, die ich vielleicht nicht einmal bemerke, sind zu viel.
wenn der preis bis in 2 wochen nicht gefallen ist kommt ne gt rein.

mfg aim