PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 6800 oder X800Pro


worlock1402
2005-08-01, 07:32:53
Guten Morgen,

ich habe mir vor 2 Wochen eine MSI 6800 TDS128 gekauft und sie ohne Probleme auf 16/6 freischalten können. Jetzt gibt es ja bei Alternate die Asus AX800 Pro/TD mit 256MB Ram für schlappe 199€ zu kaufen.

Meine Frage ist jetzt, lohnt es sich die 6800 zu verscherbeln und die X800 zu kaufen? Ich meine, wie groß ist da nochmal der Leistungszuwachs, unter Beachtung meines Systems in der Sig?

Schon jetzt vielen Dank für eure Erfahrungen und Kommentare.
Gruß
Wor


Edit:Rechtschreibfehler

Spasstiger
2005-08-01, 08:13:25
Das hängt wohl ganz von den Spielen ab. Doom 3, Chronicles of Riddick oder in Zukunft auch Quake 4 laufen mit der GeForce 6800 schneller, auch mit aktiviertem AntiAliasing.
Farcry z.b. dagegen läuft in 1280x1024 mit 4xAA erst mit 256 MB Grafikspeicher so richtig rund, da hätte die X800 Pro einen klaren Vorteil.
In Half-Life 2 hängt es von den Grafikeinstellungen ab, wenn man gerne 6-fach AntiAliasing nutzen möchte, wäre man mit der X800 Pro hier schon sehr gut bedient.
Die GeForce 6800 unterstützt dafür SuperSampling-AntiAliasing, bei einigen älteren Spielen bzw. grafisch weniger anspruchsvollen Spielen eine nette Alternative (z.b. GTA-(3D)-Reihe). Außerdem unterstützt die GeForce 6800 SM3.0 und echtes HDR, was teilweise auch sinnvoll nutzbar ist und sich in bessere Optik umlegen lässt (Splinter Cell 3 für SM3.0-Pfad und zusätzlich z.b. Parallax-Mapping oder Farcry, allerdings geht hier die Performance mit HDR schon ordentlich in die Knie, fällt auf 15-30 fps zurück).

Insgesamt finde ich einen Wechsel nicht so sinnvoll. Dann doch besser auf die neuen Mainstream-Karten auf Basis des G70/R520 warten (hoffentlich mit 16 Pipes und 256 Bit Speicheranbindung).

P.S.: Ein Upgrade auf ein A64 System könnte den Spielfluss auch entscheidend verbessern, nur auf bessere Optik sollte man dann nicht hoffen ;). Höchstens man setzt auf PCI Express und eine schnellere Grafikkarte. Dann würde ich aber wieder auf die neue Mainstream-Graka-Generation warten.

Werschtsupp
2005-08-01, 14:18:49
Also ich hatte mir ne 6800 bestellt ,war aber nicht zufrieden. Zur gleichen Zeit kam dann das Alternate Angebot und ich hab sie mir geholt, da ich noch ein Rückgaberecht auf die 6800 hatte. War meine beste Neuanschaffung seit Jahren, da die X800 ne bessere Bildquali hat und dabei auch noch eine Ecke schneller ist. Aber du musst entscheiden ob es dir das Wert ist. Wenn du aber vorhast in der nächsten Zeit nicht die CPU, PCI Express etc aufzurüsten kann ich dir die Karte nur wärmstens empfehlen.

MadManniMan
2005-08-01, 15:01:49
Da sie komplett freigeschaltet ist, ist der einzige wirkliche Nachteil deiner 6800 der kleinere Ram - hier könnte sich in vielem über 1024*768 ein Nachteil zeigen.
Die höhere Bandbreite der X800 Pro würde ich nicht überbewerten, wenn überhaupt, dann sind die Unterschiede dadurch nur meßbar.

Der Nachteil der fraglichen Filterung unter Defaulteinstellungen kannst du mit der 6800 sicherlich gut ausgleichen - hat sie doch einen leichten Füllratenüberschuß, im Vergleich zur X800 Pro gar einen Vorteil, den du besten Gewissens in HQ investieren kannst.
Und merke: mit der X800 bekommst du nur brilineare Filterung! Es gibt durchaus Apps, in denen gar schon das bilineare AF der Radeons äußerst gut aussiehst, doch gegen HQ auf NV40ern stinkt das nicht an.

Und da du wohl draufzahlen würdest, kann ich dir nur raten, die Karte zu behalten.

Gast
2005-08-01, 15:39:30
Ich würde die X800pro nehmen. In DX 9 Games läuft die Karte super (in Open GL auch, aber da ist die 6800 besser).
Wenn ich mir die Releaseliste von neuen Games so anschaue, so setzen die fast ausnahmslos auf Shader Model 2, ergo passt das ganz gut auf die Radeon. Zudem hat sie 256 MiB RAM, davon hast Du in naher und mittlerer Zukunft mehr als von SM 3.0.

Keinesfalls will ich hier SM 3.0 als Quark abstempeln, finde das ne gute Sache, aber selbst 1.5 Jahre nach dessen Einführung kannst Du die Titel, die das halbwegs supporten, an einer Hand abzählen. Das zeigt, dass es sich eben nicht von heute auf morgen durchsetzen lässt.

Die Filterqualität der Radeon ist nicht umwerfend, geht aber noch ok. Wenigstens flimmert es so gut wie nie, was man bei der 6800'er Reihe leider nicht behaupten kann. Und für performantes HDR brauchst Du eine 7800 (oder 2 6800'er @ SLI). Sonst isses zu lahm.

Ferner lassen sich die Dinger teilweise enorm übertakten, so dass Du -trotz 12 Pipes- auf die Performance einer X800XT kommst.

Ich selber habe 2 PC's, der eine mit ner 6800 Ultra, dem anderen habe ich besagte X800pro spendiert (auch von Alternate) und war wirklich positiv überrascht. Super leise, tolle Performance und gute Treiber.

Winter[Raven]
2005-08-01, 15:57:39
Die oben von MMM aufgeführtes Posting würde ich die GF6800 behlaten.

@ Gast,

Mir war nicht bewusst, das die GF6800 Probleme mit 2.0 Shadern hätte wie seiner Zeit die GF5800 and GF 5900... GF6800 berechnet eigen eigentlich sogar etwas schneller die 2.0 ;)

Gast
2005-08-01, 16:33:35
']Die oben von MMM aufgeführtes Posting würde ich die GF6800 behlaten.

@ Gast,

Mir war nicht bewusst, das die GF6800 Probleme mit 2.0 Shadern hätte wie seiner Zeit die GF5800 and GF 5900... GF6800 berechnet eigen eigentlich sogar etwas schneller die 2.0 ;)

Wo hab ich was von Problemen gesagt?

Nicky
2005-08-01, 16:50:24
']Die oben von MMM aufgeführtes Posting würde ich die GF6800 behlaten.


is ja klar.
Im Ernst
die X800Pro hat mehr und schnelleren Ram als die 6.800, was wie von MMM schon angesprochen bei Aufloesungen > 1.024x768 mit AA/AF schon mal bei der 6.800 zu Engpaessen fuehren kann. Die angesprochene Bri Filterung der X800 laesst sich ueber AI Off deaktivieren. SM3 bleibt als einziges Argument pro 6.800 (da fuer SSAA wiederum der Ram etwas knapp ist). Falls du nicht mehr als 50 Eur drauflegen musst, ist die X800 Pro die bessere Wahl.

MadManniMan
2005-08-01, 16:54:00
Die angesprochene Bri Filterung der X800 laesst sich ueber AI Off deaktivieren.

Tatsächlich? :|

Mr. Lolman
2005-08-01, 17:05:06
Tatsächlich? :|

Ja angeblich schon. Man kann aber stattdessen auch nen Regkey bemühen, sodass wirklich nur brilinear deaktiviert wird und nicht der Rest vom A.I auch gleich mit.

Außerdem: Ich kenne noch keinen Screenshot, der (außer mittels Differenzmethode irgendeines Proggis) zeigen konnte inwiefern das R420 AF anders (also schlechter) aussehen soll als R3x0 AF. Des weiteren kann dir niemand garantieren, dass NV HQ tw. nicht auch brilinear ist.

Nicky
2005-08-01, 17:06:04
laut CB ja, http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/2/#abschnitt_ati_optimierungen . Gegensaetzliche Beweise sind mir nicht bekannt.

Mr. Lolman
2005-08-01, 17:28:31
laut CB ja, http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/2/#abschnitt_ati_optimierungen . Gegensaetzliche Beweise sind mir nicht bekannt.

Ich respektiere zwar deren Arbeit und die daraus gewonnen Erkenntnisse jedoch:

CB über NV Default (damals noch ohne Mipfilteroptimierung):

Zwar leidet die Qualität auf den Screenshots relativ wenig, jedoch machen sich die Optimierungen in Bewegung durch ein deutliches Flimmern der Texturen bemerkbar, welches zwar nicht den Spielspaß mindert, jedoch unangenehm auffällt.


Jeder der meine Screenshots kennt, weiss das selbst Q ohne Opts schon nix heisst. Aber gut. Nun zu Ati AI:


Nun wollen wir aber die – zugegebenermaßen gerechtfertigten – Lobeshymnen unterbrechen und uns der Kritik zuwenden, welche auch bitter nötig ist. Warum muss man selbst bei einer 500 Euro teuren High-End-Grafikkarte mit einer schlechteren Filterqualität leben als bei der Konkurrenz nVidia? Zwar ist dort die entsprechende Einstellung Hohe Qualität deutlich langsamer, jedoch kann man diese als Option auch deaktivieren und durch ein schlechter gefiltertes, dafür aber schnelleres AF austauschen. Dies ist bei ATi jedoch nicht möglich, stattdessen muss man mit einem geringen „Zwangsflimmern“ der Texturen vorlieb nehmen, auch wenn dieses nur selten störend sein mag. Zum kleinen Ausgleich muss man anmerken, dass es durchaus Spiele geben kann, in denen der von ATi verwendete Algorithmus besser aussieht als die nVidia-Variante bei „Hohe Qualität“. Jedoch ist das eher eine Seltenheit.

Zum unterstrichenen Teil: Interessant, dass man trotzdem mit treiberdefault (beim 77.76 Q+alle Opts (http://img345.imageshack.us/img345/8628/default77761jd.gif)) bencht.

Zu den SS:SE Bildern (die man sich bei NV gleich sparen konnte, weil das AF schon bei den unschärferen HL² Texturen genug pfuscht):


Während man zwischen Catalyst A.I. Off und Default keinerlei nennenswerte Unterschiede in der Bildqualität erkennen kann, ändert sich das Ergebnis, nachdem auf die Qualitätsstufe Advanced umgeschaltet wird. Das gesamte Bild, vor allem der untere Bildrand, wird deutlich schlechter aufgelöst als in der Standardeinstellung der Grafikkarte. Darüber hinaus beginnt das gesamte Spiel an zu flackern. Mehr möchten wir nicht kommentieren, da die Bilder in diesem Fall für sich sprechen.


Da wird garnix schlechter aufgelöst. Es wird anders (falscher) dargestellt, aber die Auflösung ist gleich. Möcht wissen wo die das so deutlich erkennen haben können. Imo spricht da nämlich nix für sich. Es sieht anders aus ok. Es mag meinentwegen auch mehr flimmern und deswegen insgesamt schlechter sein. Aber ne schlechtere Auflösung? Naja...


Pics ganz unten:http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/4/#abschnitt_nvidia_nv4x

Nicky
2005-08-01, 17:38:34
Ich respektiere zwar deren Arbeit und die daraus gewonnen Erkenntnisse jedoch:

CB über NV Default (damals noch ohne Mipfilteroptimierung):


Jeder der meine Screenshots kennt, weiss das selbst Q ohne Opts schon nix heisst. Aber gut. Nun zu Ati AI:



Zum unterstrichenen Teil: Interessant, dass man trotzdem mit treiberdefault (beim 77.76 Q+alle Opts (http://img345.imageshack.us/img345/8628/default77761jd.gif)) bencht.

Zu den SS:SE Bildern (die man sich bei NV gleich sparen konnte, weil das AF schon bei den unschärferen HL² Texturen genug pfuscht):
]
Es ging doch nur darum ob man bri bei R4x0 deaktivieren kann. Warum also der Bezug auf nV?
QUOTE=Mr. Lolman]
Da wird garnix schlechter aufgelöst. Es wird anders (falscher) dargestellt, aber die Auflösung ist gleich. Möcht wissen wo die das so deutlich erkennen haben können. Imo spricht da nämlich nix für sich. Es sieht anders aus ok. Es mag meinentwegen auch mehr flimmern und deswegen insgesamt schlechter sein. Aber ne schlechtere Auflösung? Naja...
[/QUOTE]
Schlechter aufgeloest =/= schlechtere Aufloesung

Mr. Lolman
2005-08-01, 17:45:21
Sry, hab mich wiedermal hinreissen lassen.

Zur Auflösung. Es wirkt einfach biased, von schlechter aufgelöst und für sich selbst sprechende Bilder zu reden, während die NV Qualität+Opts auf den HL² Screenshots "relativ wenig leidet"

Egal.

MechWOLLIer
2005-08-01, 18:49:22
Sry, hab mich wiedermal hinreissen lassen.
Zur Auflösung. Es wirkt einfach biased, von schlechter aufgelöst und für sich selbst sprechende Bilder zu reden, während die NV Qualität+Opts auf den HL² Screenshots "relativ wenig leidet"
Egal.
Das Wort im mund musst du mir aber nicht rumdrehen;)

"Zwar leidet die Qualität auf den Screenshots relativ wenig, jedoch machen sich die Optimierungen in Bewegung durch ein deutliches Flimmern der Texturen bemerkbar, welches zwar nicht den Spielspaß mindert, jedoch unangenehm auffällt."

Zum unterstrichenen Teil: Interessant, dass man trotzdem mit treiberdefault (beim 77.76 Q+alle Opts) bencht.
Wo meinst du das genau? In dem Artikel zur 7800GTX? Wenn ja, dort war ja noch nicht bekannt, dass der G70 spinnt was den Texturfilter betrifft.

Mr. Lolman
2005-08-01, 19:30:00
Es geht um die Vergleichbarkeit zw. R420 und NV40. Du schreibst, dass Ati Optimierungen auch kaum auffallen. Du schreibst auch, dass ATis Filterung schon mal besser aussehen kann als NV40 HQ. Was ich aber nirgendwo lesen kann, ist dass treiberdefault (je nach Content sogar deutlich) flimmriger ist als ATis AI low. Und das ist dir spätestens beim HL² Vergleich aufgefallen.

Und wenn SS:SE das schon bei ATi so schön zeigt, warum nicht auch gleich Pics von NV? Dann da wär der Unterschied schon beim Standbild ersichtlich gewesen. Und SS:SE haste ja laufen gehabt, wie die Colormipshots zeigen. ;)


Wo meinst du das genau? In dem Artikel zur 7800GTX? Wenn ja, dort war ja noch nicht bekannt, dass der G70 spinnt was den Texturfilter betrifft.

Nein, aber es hätte (schon vom NV40 her) klar sein müssen, das alles unter HQ nicht mit ATi vergleichbar ist.

worlock1402
2005-08-01, 19:45:40
Vielen Dank für eure vielen Antworten. Vieleicht hätte ich als Backgroundinfo noch geben müssen das ich KEIN Shooterfan bin (BF2 mal ausgenommen).

Ich hätte nicht gedacht das meine Frage soviel Diskussionspotential hat und ich muss zugeben das ich den letzten Postings technisch nicht mehr folgen kann, da fehlt mir einfach das Fachwissen.

Ich spiele in erster Linie World of Warcraft (1600x1200, volle Details, kein AA kein AF), Pro Evolution 4 und BF2 (1600x1200, volle Details kein AA kein AF).

In diesem bezug fragte ich mich ob mir die Atil evtl ein besseres Bild ermöglicht, also deutlich spürbar.

Gruß
Wor

Mr. Lolman
2005-08-01, 20:23:10
Ich spiele in erster Linie World of Warcraft (1600x1200, volle Details, kein AA kein AF), Pro Evolution 4 und BF2 (1600x1200, volle Details kein AA kein AF).

In diesem bezug fragte ich mich ob mir die Atil evtl ein besseres Bild ermöglicht, also deutlich spürbar.


Wenn du eh kein AA/AF aktiv hast (warum eigentlich?), wirst du kaum ne bessere BQ haben.

SKYNET
2005-08-01, 20:42:44
Guten Morgen,

ich habe mir vor 2 Wochen eine MSI 6800 TDS128 gekauft und sie ohne Probleme auf 16/6 freischalten können. Jetzt gibt es ja bei Alternate die Asus AX800 Pro/TD mit 256MB Ram für schlappe 199€ zu kaufen.

Meine Frage ist jetzt, lohnt es sich die 6800 zu verscherbeln und die X800 zu kaufen? Ich meine, wie groß ist da nochmal der Leistungszuwachs, unter Beachtung meines Systems in der Sig?

Schon jetzt vielen Dank für eure Erfahrungen und Kommentare.
Gruß
Wor


Edit:Rechtschreibfehler


geforce behalten, leicht bessere BQ gegenüber der ATI und schneller, 1280*960 4xAA/8xAF wird auch keine probleme machen bei aktuellen games, bis in dieser auflösung haben 256MB keinen vorteil.

256MB brauch man eigentlich erst ab 1280*960 8xSSAA/16xAF und höher. =)

Mr. Lolman
2005-08-01, 20:51:17
leicht bessere BQ gegenüber der ATI und schneller,

Naja...


256MB brauch man eigentlich erst ab 1280*960 8xSSAA/16xAF und höher. =)

Dafür braucht man aber meistens auch schon n G70 oder SLI...

Gast
2005-08-01, 20:53:55
lol SKYNET, geile SIG aber kauf die lieber mal n GB Ram du armer Junge...

Oblivion
2005-08-01, 21:06:51
Vielen Dank für eure vielen Antworten. Vieleicht hätte ich als Backgroundinfo noch geben müssen das ich KEIN Shooterfan bin (BF2 mal ausgenommen).

Ich hätte nicht gedacht das meine Frage soviel Diskussionspotential hat und ich muss zugeben das ich den letzten Postings technisch nicht mehr folgen kann, da fehlt mir einfach das Fachwissen.

Ich spiele in erster Linie World of Warcraft (1600x1200, volle Details, kein AA kein AF), Pro Evolution 4 und BF2 (1600x1200, volle Details kein AA kein AF).

In diesem bezug fragte ich mich ob mir die Atil evtl ein besseres Bild ermöglicht, also deutlich spürbar.

Gruß
Wor

Kein AA/AF bei deinem System? Warum denn? noch nie ausprobiert? schaut gleich um einiges besser aus ;)

worlock1402
2005-08-01, 22:25:06
Hmm, hatte mal 4x AA und 4x AF bei 1600x1200 (WoW,BF2) an, da ging meine Framerate aber gut unter 20fps.
Ich werd mal den Skynets (und Oblivions) Vorschlag mit den 1280x980 und AA sowie AF austesten, vieleicht bleibt da die Fps über 30 und ich hab ein wesentlich besseres Bild.Wobei ich da gespannt bin obs wesentlich besser als 1600x1200 aussieht. Ein Freund von mir (9800Pro user mit 128MB) schwört auf höchste Auflösung ohne AA.
Ich tests aus und reporte dann direkt mal meinen empfundenen Eindruck.
Danke für die weiterhin lebhaft geführte Diskussion, im Moment tendier ich zum 6800 behalten.
Gruß
Wor

Oblivion
2005-08-01, 22:28:00
Würd dir auch raten sie zu behalten

aber mach einfach zwei screens mit WoW an genau der selben Stelle, mit eben den verschiedenen Auflösungen bzw. AA/AF und dann vergleich sie

SKYNET
2005-08-01, 22:36:28
Naja...



Dafür braucht man aber meistens auch schon n G70 oder SLI...


kommt wohl drauf an welches game. ;)

SKYNET
2005-08-01, 22:37:38
lol SKYNET, geile SIG aber kauf die lieber mal n GB Ram du armer Junge...


ich habe nen GB BH5 liegen... any questions? :P

worlock1402
2005-08-01, 23:08:08
Ok, ich hab nun mal mit 1600x1200 und 4xAA 4xAF BF2 und WoW gespielt. Ich frag mich warum ich da sonst ruckler drinn hatte. Es lief recht flüssig (ausser ganz wenige Ruckler) und sah auch noch gut aus. Ich denke mal ich werd auf 2xAA und 4xAF bei 1600x1200 gehen. Dann sollten auch die letzten Ruckler weg sein, trotzdem frag ich mich warum ich da sonst extremes Ruckeln hatte und jetzt nicht.
Wie dem auch sei, ich behalte die 6800, never Change a running System oder wie war das?
Gruß
Wor

SKYNET
2005-08-01, 23:57:36
BF2 profitiert von 2GB hauptspeicher schon sehr...

worlock1402
2005-08-02, 07:18:20
@Skynet
Im Moment habe ich 1GB Ram im Dualchannelmode, meinst du ein weiteres GB würde bei meinem Sys in verschiedenenSpielen nochmal für mehr Performance sorgen?

TobiWahnKenobi
2005-08-02, 07:39:10
klar. bei battelfield lohnen sich 2gig auf jeden fall. das hab' ich auf einer ati radeon 9600XT erlebt und auf meiner GF6.

mit "mehr" RAM waren immer höhere auflösungen und höhere AA modi möglich.

(..)

mfg
tobi

Oblivion
2005-08-02, 08:43:12
@Skynet
Im Moment habe ich 1GB Ram im Dualchannelmode, meinst du ein weiteres GB würde bei meinem Sys in verschiedenenSpielen nochmal für mehr Performance sorgen?

Es kommt drauf an, wenn du das Geld herum liegen hast und sehr viel BF2 spielst dann zahlt sichs auf alle Fälle aus