PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : *Thema-Graka neu durchkauen* - 6800nu/gt / x800xl


Silent3sniper
2005-03-18, 21:25:10
was meint ihr, wäre die beste Wahl?

- lohnt SM3?

- HDR (eh zuwenigs Leistung bei den Nvidia's?)

- X800XL / X800 XT (eventuell)




Die 6800nu wäre eine XFX, mit 128mb 2.2ns Ram.
Garantiert wird einem aufjedenfall 16/4

--> hoher Performance Unterschied mit 2 Vertex Shadern mehr (falls diese sich nicht freischalten lassen.


6800gt - 50€ mehr (würde sich das lohnen?) (Diese 50€ wäre die billigste erhältliche 6800gt)

- X800XL --> Kein SM3 / Gute Performance

- X800 XT -- teuer, aber recht schnell



Ich werde jede dieser Karten WaKüKühlen.

---> Spannungswandler-Überhitzung?

WaKüKühler-Empfehlungen?



Graka Empfehlungen:

- Ich bin mir nat. im klaren über Mainboardwechsel etc.





Aufjedenfall würde ich meine 9800Pro @ 440/390 verkaufen (120-130€) ??



thx im Voraus ;)

(edit.: Achja, 2xaa / 8xaf wären meine Vorraussetzungen an die Grakas [@ 1024x768])

Peleus1
2005-03-18, 21:29:00
Für deine 9800Pro kriegst du sicher noch 120,- mehr allerdings auch nicht mehr.

Und ausserdem ist die Pre-selected Karte ne Asus.

Imo, wird SM3 immer wichtiger ( /wave@ Verbündeter Tombman ;) ) man siehts an SCCT, wo man die ATI-User einfach fies ausgrenzt und AoE3 hat ja auch SM3. Und das werden immer mehr Spiele. Prinzipiell ist das ja auch die Frage um die es sich beim Grakakauf dreht, SM3 oder nicht ? Das, kannst nur du entscheiden, ob du es brauchst oder nicht.

1024*768 schaffen alle diese Karten mit 2aa/8af

Silent3sniper
2005-03-18, 21:31:08
1024*768 schaffen alle diese Karten mit 2aa/8af


Das ist klar, aber wenn dann SM3 etc. dazukommt...

Ausserdem, welche der Karten (ATI vs. Nvidia) ist denn im AA/AF Performance-Verlust besser (schlechter) ;)

Peleus1
2005-03-18, 21:35:32
Also Far Cry lief/läuft bei mir mit HDR ohne aa/af, allerdings war das auch mit Standarttakt, wenn man da noch was taktet, geht da schon was.
Allerdings kannst du Nvidia-Karten mit SM3 nicht mit ATI-Karten mit SM2 vergleichen.

Blaze
2005-03-18, 21:38:17
Wenn ich du wäre würd ich einfach noch ein bisschen warten bis der NV50 bzw. R520 da sind...jetzt noch zu ner aktuellen Karte greifen, ich weiss nich...nachher ärgerst du dich nur dass du nich noch 2-3 Monate gewartet hast.

Ich machs zumindest so (y)

Peleus1
2005-03-18, 21:39:42
Ja, allerdings hast du auch ne 6800nU drinnen. Und ich hab den Schritt 9800PRO--->6800nU nicht bereut. Ausserdem glaube ich nicht das die Karten bis dahin da sind.

Kane02
2005-03-18, 21:40:24
Also wenn du jetzt ne neue Karte willst, dann würd ich eine mit SM3 nehmen. Egal, was andere sagen, aber die nächsten Spiele benutzen das nun mal. Und der nächste Grafikchip von ATI kanns nun auch.

Silent3sniper
2005-03-18, 21:45:26
Ja ok, rein theoretisch wäre warten auf die nächste Graka Generation auch nicht schlecht, aber dann würde es auch wieder etwas dauern, bis die Preise sinken, in die ein Schüler (ich) dran denken kann, sich ne Graka zu kaufen.

Vorallem, weil es einem ja nichts bringt irgendnen Wegwerf Zeugs zu holen ^^


Mein Sys atm: Winni @ 2400mhz / Abit AV8 / 1gb Ram (tccd)

Wann soll denn die nächste Generation ATI/NVIDIA auf den Markt kommen, und vorallem, wird es so sein, wie bei der x800xl, dass sie PCIe hypen und die PCIe Grakas billiger verkaufen?

Peleus1
2005-03-18, 21:46:19
Tjo, aber wann kommt der neue ATI-Chip ? Genau weis das wohl keiner.

Ich halte zwar nichts von ATI:
Aber die X800XL hat schon nen gutes P/L Verhältniss, aber halt kein SM3.

Ob einem SM3 wichtig ist oder nicht muss halt immer jeder selbst entscheiden. Wer drauf verzichten kann, ist mit der X800XL sicherlich gut beraten wer nicht, muss halt schauen was es sich da kauft.

@Silent
Sie hypen PCI-E nicht, sie bringen bestimmte Karten erstmal für PCI-E only raus. ( X800Xl, X700) Das wird nicht anders werden.

Blaze
2005-03-18, 21:48:05
Ja, allerdings hast du auch ne 6800nU drinnen. Und ich hab den Schritt 9800PRO--->6800nU nicht bereut. Ausserdem glaube ich nicht das die Karten bis dahin da sind.

Okay, wann die Karten da sind weiss niemand, aber ich denke mit ner 9800Pro kann man (ohne viel AA/AF) immernoch gut zocken, ich kenn zumindest kein Spiel das auf dem Rechner von meinem Bruder (der hat besagte Karte) übelst vor sich hinruckelt bei 1024x768...

Und dass die Karten zum Sommer hin kommen sollte man schon annehmen können.

Dunkeltier
2005-03-18, 21:50:46
was meint ihr, wäre die beste Wahl?

- lohnt SM3?

- HDR (eh zuwenigs Leistung bei den Nvidia's?)

- X800XL / X800 XT (eventuell)




Die 6800nu wäre eine XFX, mit 128mb 2.2ns Ram.
Garantiert wird einem aufjedenfall 16/4

--> hoher Performance Unterschied mit 2 Vertex Shadern mehr (falls diese sich nicht freischalten lassen.


6800gt - 50€ mehr (würde sich das lohnen?) (Diese 50€ wäre die billigste erhältliche 6800gt)

- X800XL --> Kein SM3 / Gute Performance

- X800 XT -- teuer, aber recht schnell



Ich werde jede dieser Karten WaKüKühlen.

---> Spannungswandler-Überhitzung?

WaKüKühler-Empfehlungen?



Graka Empfehlungen:

- Ich bin mir nat. im klaren über Mainboardwechsel etc.





Aufjedenfall würde ich meine 9800Pro @ 440/390 verkaufen (120-130€) ??



thx im Voraus ;)

(edit.: Achja, 2xaa / 8xaf wären meine Vorraussetzungen an die Grakas [@ 1024x768])


Für SM3.0 Effekte ist die derzeitige Kartengeneration schlichtweg zu langsam, es wäre Unsinn allein aus diesen Gesichtspunkt die Grafikkarte auszuwählen. Und eine Geforce 6800 mit lediglich 128 MB und 2x MSAA könnte schon etwas knapp werden bei Spielen mit ziemlich hoch aufgelösten Texturen...denn diese gönnen sich da gerne etwas mehr Speicher.

Überhaupt halte ich von "freigeschalteten Karten" überhaupt nichts, für mich muß es immer eine "vollwertige" sein. Also alles was 16x Pixelpipelines hat, wobei mich schon allein die höhere Rohleistung einer Radeon X800 XL, die besseren Windows-Treiber, das ViVo und der 1000x bessere TV-Out jucken würden. :usad:

Peleus1
2005-03-18, 21:54:00
Für SM3.0 Effekte ist die derzeitige Kartengeneration schlichtweg zu langsam, es wäre Unsinn allein aus diesen Gesichtspunkt die Grafikkarte auszuwählen. Und eine Geforce 6800 mit lediglich 128 MB und 2x MSAA könnte schon etwas knapp werden bei Spielen mit ziemlich hoch aufgelösten Texturen...denn diese gönnen sich da gerne etwas mehr Speicher.

Überhaupt halte ich von "freigeschalteten Karten" überhaupt nichts, für mich muß es immer eine "vollwertige" sein. Also alles was 16x Pixelpipelines hat, wobei mich schon allein die höhere Rohleistung einer Radeon X800 XL, die besseren Windows-Treiber, das ViVo und der 1000x bessere TV-Out jucken würden. :usad:
So:
SM3 hat man oder nicht :D

Du magst ATI-Anhänger sein, ich bin Nvidia-Anhänger. Ich denke SM3 ist wichtig du denkst es ist egal. Nehmen wir die 6800Ultra und die X800XT, die beiden Karten sind in etwa gleich schnell. Kosten in etwa gleich viel. So was nehme ich ? 6800Ultra. Warum ? Weil sie SM3 hat ;D.

Wenn du irgendwo ne Beilage mitnehmen kann mir der dein Essen besser schmeckt, nimmst du sie mit ? Ja.

dargo
2005-03-18, 21:59:51
Für SM3.0 Effekte ist die derzeitige Kartengeneration schlichtweg zu langsam, es wäre Unsinn allein aus diesen Gesichtspunkt die Grafikkarte auszuwählen. Und eine Geforce 6800 mit lediglich 128 MB und 2x MSAA könnte schon etwas knapp werden bei Spielen mit ziemlich hoch aufgelösten Texturen...denn diese gönnen sich da gerne etwas mehr Speicher.


Also das ist schonmal ganz falsch.

1. Für SM3 ist die Geforce 6800 nicht zu langsam, sie ist nur für HDR etwas zu langsam bzw. die Leistung bricht zu stark ein in Verbindung mit HDR. Hoffentlich wird das mit den Nachfolgechips besser.

2. 128MB Grafikkartespeicher reichen heute bis 1280x1024 2xAA noch aus. Erst ab 1280x1024 4xAA bricht die Leistung bei aktuellen Toptiteln verhältnismäßig stark ein.

Blaze
2005-03-18, 22:05:08
2. 128MB Grafikkartespeicher reichen heute bis 1280x1024 2xAA noch aus. Erst ab 1280x1024 4xAA bricht die Leistung bei aktuellen Toptiteln verhältnismäßig stark ein.

Kann ich bestätigen, ich kann dank TFT nur diese Auflösung fahren und es laufen alle Games flüssig.

Dunkeltier
2005-03-18, 22:06:38
So:
SM3 hat man oder nicht :D

Du magst ATI-Anhänger sein, ich bin Nvidia-Anhänger. Ich denke SM3 ist wichtig du denkst es ist egal. Nehmen wir die 6800Ultra und die X800XT, die beiden Karten sind in etwa gleich schnell. Kosten in etwa gleich viel. So was nehme ich ? 6800Ultra. Warum ? Weil sie SM3 hat ;D.

Wenn du irgendwo ne Beilage mitnehmen kann mir der dein Essen besser schmeckt, nimmst du sie mit ? Ja.


Wie kommst du darauf, das ich ATI-"Anhänger" bin? Ich kriege kein Geld von denen. Ich hatte vorher 3x (!) Geforce 6800 GT Karten, eine Geforce 5900 Ultra, 4x Geforce 4 Ti Karten. Müßte ich dann nicht eher nVidia-"Fan" sein? Insbesondere, da ich im Vergleich weniger ATI-Produkte besaß? Unlogisch, nicht wahr? Fakt ist, ich nagel mich nicht auf einen Punkt fest.

Du bist fixiert auf auf SM3.0. Wenn du meinst dies sei für dich der absolute Kaufgrund, bitte - kein Problem! Ich betrachte hingegen eher das Gesamtpaket, was kriege ich alles geboten? Aus meiner Sicht:
- bessere Windows-Treiber
- gammakorrigiertes MSAA
- mehr Direct3D-Leistung (wichtig für FarCry oder HL², etc.)
- im Schnitt leisere Kühlung (all meine Geforce 6800 GT haben gegen die Radeon X800 XL abgestunken)
- teils günstigere Preise (insbesondere was die Geforce 6800 GT VS Radeon X800 Xl oder die Geforce 6800 Ultra VS die Radeon X850 XT angeht)
- bessere Spielbarkeit mit bestimmten Settings

SM3.0 ist derzeit für den normalen Anwender absolut kein Kaufargument, wird aber gerne so vermarktet. Wie gut sowas funktioniert sehe ich an meinen "dummen" Nachbarn. Der hat bisher eine 32 MB Geforce 2 GTS Pro gehabt, und hat sich nun eine DX9.0 Karte gekauft. DX9.0 war ihn sehr wichtig. Es ist eine 128 MB Geforce 5200 FX mit einen 64-Bit Speicherinterface. Er hat sich von
a) den 128 MB und
b) dem DX9.0 blenden lassen.

Der Witz an der ganzen Sache ist der, das trotz all der tollen Features die Karte viel zu lahm für alles ist. Nicht nur das, ich habe ihn sogar vorgeführt das die Karte langsamer (!) als sein alte Geforce ist. Einmal wieder die alte eingebaut und NFSU, C&C Generals und GTA 3 liefen wieder eine Auflösungstufe höher flüssig. SM3.0 ist mit den derzeitigen Karten schlichtweg für den ARSCH.

Dr.Dirt
2005-03-18, 22:10:01
Die 6800er sind gute Karten, leider werden sie von den buggy NV-Treibern im Stich gelassen.

Ich hatte 7 Monate lang eine 6800GT, in dieser Zeit gab es nicht einen bugfreien nVidia Treiber.

Aus diesem Grund würde ich ATI klar den Vorzug geben.

Dunkeltier
2005-03-18, 22:10:17
Also das ist schonmal ganz falsch.

1. Für SM3 ist die Geforce 6800 nicht zu langsam, sie ist nur für HDR etwas zu langsam bzw. die Leistung bricht zu stark ein in Verbindung mit HDR. Hoffentlich wird das mit den Nachfolgechips besser.

2. 128MB Grafikkartespeicher reichen heute bis 1280x1024 2xAA noch aus. Erst ab 1280x1024 4xAA bricht die Leistung bei aktuellen Toptiteln verhältnismäßig stark ein.


1) Ich rede ja eigentlich auch von den damit verbundenen und ermöglichten Effekten, sorry falls es etwas undeutlich rüberkam.

2) Ansichtssache. Ich spiele zum Beispiel derzeit HL² mit 1280x960@32 Bit/ 4xMSAA/ 16xtri-aF ein zweites mal durch, und dies könnte für solch eine knapp bestückte Karte schon langsam ein Grenzfall werden. Und wenn man sich dann noch diverese Titel reinzieht die auf der Unreal-Engine basieren und sehr hoch aufgelöste Texturen mitbringen - oh je! Insbesondere Unreal ist sehr speicherhungrig. Das hat sich schon damals auf der Radeon 9800 Pro bzw. XT stark bemerkbar gemacht...

Peleus1
2005-03-18, 22:11:07
Wenn du auf SM3 keinen Wert legst, bitte. Aber SM3 ist eine Sache die jeder wissen muss. Und für mich war SM3 eben schon ein Kaufargument. Und ATI hat gegen die 6800nU für AGP nichts grosses zu melden, solange es die X800XL nicht gibt. Und für AGP siehts gegen die 6800GT nicht soviel besser aus.

Und wenn man immer 80FPS braucht, dann ist die 6800er Reihe einfach nichts für dich.

StefanV
2005-03-18, 22:15:25
was meint ihr, wäre die beste Wahl?

- lohnt SM3?
(...)
6800gt - 50€ mehr (würde sich das lohnen?) (Diese 50€ wäre die billigste erhältliche 6800gt)
Das ist so ziemlich dämlich, was du da tust:

Einmal auf SM3 setzen weil das ja soo wichtig und toll ist und dann eine 128MB Karte nimmst, die bei aktuellen Spielen stark wegbricht, weil der Speicher ausgeht.

Ansonsten:
SM3 ist momentan ziemlicher Blödsinn, die nVs sind momentan auch ziemlicher shice, damit hast bei einigen Spielen ab und an mal ein paar (mehr) Probleme als mit einer ATI Karte.

Über die Kühlung sprechen wir lieber garnicht erst, da sind die ATI Karten um Welten überlegen, seit dem ATi bei dem Schwachsinn auf der Rage 128 und R100 ordentlich gescholten wurde (absolut zu recht, da beide passiv kühlbar sind, die R100 läuft momentan bei mir mit 'nem shittigen, alten P1 Kühler...)

dargo
2005-03-18, 22:19:32
Ansichtssache. Ich spiele zum Beispiel derzeit HL² mit 1280x960@32 Bit/ 4xMSAAA/ 16xtri-aF ein zweites mal durch, und dies könnte für solch eine knapp bestückte Karte schon langsam ein Grenzfall werden. Und wenn man sich dann noch diverese Titel reinzieht die auf der Unreal-Engine basieren und sehr hoch aufgelöste Texturen mitbringen - oh je! Insbesondere Unreal ist sehr speicherhungrig. Das hat sich schon damals auf der Radeon 9800 Pro bzw. XT stark bemerkbar gemacht...

Du hast mich nicht richtig verstanden. Ich meinte, daß bis 1280x1024 2xAA die 128MB reichen. Erst ab 1280x1024 4xAA limitiert der Speicher. Dabei macht es keinen Unterschied ob es 1280x1024 oder 1280x960 ist.

Oder besser ausgedrückt :

Bis 1024x768 4xAA oder 1280x1024 2xAA reichen 128MB.
Ab 1280x960 4xAA aufwärts 256MB.

Vorrausgesetzt die Füllrate stimmt natürlich.

Dunkeltier
2005-03-18, 22:21:59
Wenn du auf SM3 keinen Wert legst, bitte. Aber SM3 ist eine Sache die jeder wissen muss. Und für mich war SM3 eben schon ein Kaufargument. Und ATI hat gegen die 6800nU für AGP nichts grosses zu melden, solange es die X800XL nicht gibt. Und für AGP siehts gegen die 6800GT nicht soviel besser aus.

Und wenn man immer 80FPS braucht, dann ist die 6800er Reihe einfach nichts für dich.


Hm, das widerspricht sich. Den letzten Satz könnte man indirekt als Eingeständniss werten, das die nVidia-Karten zu wenig Frames liefern, welche erst recht nicht für SM3.0-Effektchen reichen. Aber ich mein, wozu ein Eingeständniss wenn ich mir über Monate selbst ein Bild davon machen konnte. :ulol: Was deine Vergleiche angeht: Gleiches gilt für Geforce-Karten im PCIe-Format. Ich habe monatelang versucht an eine Ultra zu kommen. Nix ging. Ganz davon abgesehen sind die erheblich teurer (über 100 Euro) und bieten dabei im Spiele-Schnitt weniger Leistung als 'ne Radeon X850 XT...

Sag mir bitte, was soll ich mit SM3.0 groß reißen können? Auf das zukünftige Unreal III und dessen Effekte warten? Bringt nichts, da wären alle heutigen Karten eh zu langsam für. Eher wechsel ich dann auf die neue Generation, und verkaufe meine alte Karte...

Dunkeltier
2005-03-18, 22:24:32
Du hast mich nicht richtig verstanden. Ich meinte, daß bis 1280x1024 2xAA die 128MB reichen. Erst ab 1280x1024 4xAA limitiert der Speicher. Dabei macht es keinen Unterschied ob es 1280x1024 oder 1280x960 ist.

Oder besser ausgedrückt :

Bis 1024x768 4xAA oder 1280x1024 2xAA reichen 128MB.
Ab 1280x960 4xAA aufwärts 256MB.

Vorrausgesetzt die Füllrate stimmt natürlich.


Ich habe dich schon verstanden. Und ich wollte damit nur sagen, das man den Speicher schon mit heutigen Durchschnitts-Settings an den knappen Rand bringt. Bei 'ner Radeon ist die ganze Sache eh weniger kritisch zu sehen.

Peleus1
2005-03-18, 22:25:33
U3 kommt 2006 oder ? Bis dahin hab ich lange was neues dadrinnen, ich sehe SM3 für nett und schön an und als nette Beigabe, ich muss es ja nicht einschalten. Von daher ist die ganze Diskussion von Anfang an sinnlos. Wenn ich Leistung übrig habe, dann schalte ich SM3 dazu, wenn nicht tja dann halt nicht. Im Endeffekt ist das eine nette Dreingabe im Moment noch. Das kann sich ändern und wir sind auf dem besten Weg dahin.

dargo
2005-03-18, 22:55:59
Ich habe dich schon verstanden. Und ich wollte damit nur sagen, das man den Speicher schon mit heutigen Durchschnitts-Settings an den knappen Rand bringt. Bei 'ner Radeon ist die ganze Sache eh weniger kritisch zu sehen.

Also bei diesem Satz bitte ich um nähere Infos. Wie soll man das denn nun verstehen ?

Kinehs
2005-03-19, 00:11:30
was meint ihr, wäre die beste Wahl?

- lohnt SM3?

- HDR (eh zuwenigs Leistung bei den Nvidia's?)

- X800XL / X800 XT (eventuell)




Die 6800nu wäre eine XFX, mit 128mb 2.2ns Ram.
Garantiert wird einem aufjedenfall 16/4

--> hoher Performance Unterschied mit 2 Vertex Shadern mehr (falls diese sich nicht freischalten lassen.


6800gt - 50€ mehr (würde sich das lohnen?) (Diese 50€ wäre die billigste erhältliche 6800gt)

- X800XL --> Kein SM3 / Gute Performance

- X800 XT -- teuer, aber recht schnell



Ich werde jede dieser Karten WaKüKühlen.

---> Spannungswandler-Überhitzung?

WaKüKühler-Empfehlungen?



Graka Empfehlungen:

- Ich bin mir nat. im klaren über Mainboardwechsel etc.





Aufjedenfall würde ich meine 9800Pro @ 440/390 verkaufen (120-130€) ??



thx im Voraus ;)

(edit.: Achja, 2xaa / 8xaf wären meine Vorraussetzungen an die Grakas [@ 1024x768])

Also 2xaa / 8xaf ist bei all den Karten mit den aktuellen Engines drinnen.

Spannungswandler werden wohl bei einer Passivkühlung keine Probleme machen.

Du solltest auf jeden Fall eine Karte im mittleren Preissegment kaufen (so X800XL für 300 Euro).

Denn wenn neue Chips verfügbar sind fällt der Preis bei den alten wenig und du kriegst sie bei Ebay mit weniger Verlust bei Ebay los. Wann die neuen Chips verfügbar sein werden weiß keiner, nur daß sie wahrscheinlich im 2ten oder 3ten Quartal vorgestellt werden (Betonung liegt auf vorgestellt, nicht verfügbar :) ).

In SM3 sehe ich momentan keinen (großen) Vorteil und für die nähere Zukunft.

Morpheus2200
2005-03-19, 07:43:49
nimm die 6800GT mit der bekommst mehr Qualität auf deine bildschirm, spezial bei der von dir genuzten auflösung ist in älteren Titeln meist 16xAA drin wobei die leistung einer x800 bei solchen Titeln in mehr frames verpufft. leistungmässig ist es komplett egal welche karte du nimmst da sie annähernd gleich schnell sind , hier sollte auf Qualität und features geachtet werden alles andere ist uninteressant.

StefanV
2005-03-19, 08:28:25
Was deine Vergleiche angeht: Gleiches gilt für Geforce-Karten im PCIe-Format. Ich habe monatelang versucht an eine Ultra zu kommen. Nix ging. Ganz davon abgesehen sind die erheblich teurer (über 100 Euro) und bieten dabei im Spiele-Schnitt weniger Leistung als 'ne Radeon X850 XT...

Die X850XT kostet als PCIe Version etwa so viel wie eine 6800GT!!
Die x800 gibts schon für etwa 250€, die x800XL für etwa 300€...


nimm die 6800GT mit der bekommst mehr Qualität auf deine bildschirm, spezial bei der von dir genuzten auflösung ist in älteren Titeln meist 16xAA drin wobei die leistung einer x800 bei solchen Titeln in mehr frames verpufft. leistungmässig ist es komplett egal welche karte du nimmst da sie annähernd gleich schnell sind , hier sollte auf Qualität und features geachtet werden alles andere ist uninteressant.
1. nur solang man kein AF nutzt, denn das flimmert auf der 6800 übel, wo es auf der x800 nicht flimmert...

2. nur solang man genug Performance hat, ums für SSAA zu verplempern, hat mans nicht, so ist die x800 weit im Vorteil...

3. naja, die x800er sind teilweise _SPÜRBAR_ schneller als die 6800ern, wie du von denen erfahren kannst, die von der 6800er auf x800 umgestiegen sind.

Darüber hinaus ist die Performance der ATis konstanter, soll heißen, die sind in _ALLEN_ spielen schnell, während die nV Karten auf App abhängige Optimierungen angewiesen sind, ohne denen sind die nV Karten weit langsamer als die ATis.

PS: vergiss nicht, das die ATI Karten meist mehr Füllrate haben, da höher getaktet...

Morpheus2200
2005-03-19, 08:59:28
Die X850XT kostet als PCIe Version etwa so viel wie eine 6800GT!!
Die x800 gibts schon für etwa 250€, die x800XL für etwa 300€...


1. nur solang man kein AF nutzt, denn das flimmert auf der 6800 übel, wo es auf der x800 nicht flimmert...

2. nur solang man genug Performance hat, ums für SSAA zu verplempern, hat mans nicht, so ist die x800 weit im Vorteil...

3. naja, die x800er sind teilweise _SPÜRBAR_ schneller als die 6800ern, wie du von denen erfahren kannst, die von der 6800er auf x800 umgestiegen sind.

Darüber hinaus ist die Performance der ATis konstanter, soll heißen, die sind in _ALLEN_ spielen schnell, während die nV Karten auf App abhängige Optimierungen angewiesen sind, ohne denen sind die nV Karten weit langsamer als die ATis.

PS: vergiss nicht, das die ATI Karten meist mehr Füllrate haben, da höher getaktet...



Also ich hab mit ner 9700pro alles in 1024x768 und min 2aaund 4 af gespielt jetzt haben wir karten die doppelt so schnell sind und kommst mit dem argument spürbar schneller. bei was?(vergiss das ich will hier keine benches von irgendwelchen seiten sehen) in 1024x768 ist jedes spiel mit so einer karte in höchsten details spielbar selbst in 1280x1024 gibts so gut wie nie probleme mit der performance und das mit 4AA/8AF

dein weit im vorteil sieht wie aus? 120fps gegen 130fps? *schmunzel*

Ich finde es einfach geil das ne GF mehr kann als ne ATI und die ATI user dann kommen und von mehrperformance reden die sie nichtmal mitbekommen.

Mir persönlich ist Qualität wichtiger vorallem wenn leistung im überfluss vorhanden ist ;-)

Der preis ist allerdings wirklich ein argument .

Zu Punkt 1. noch hat das nicht etwas mit dem lod zu tun? Bis jetzt war ich der meinung das die Gf 6 das bessere AF bietet.

Dunkeltier
2005-03-19, 09:04:25
Also ich hab mit ner 9700pro alles in 1024x768 und min 2aaund 4 af gespielt jetzt haben wir karten die doppelt so schnell sind und kommst mit dem argument spürbar schneller. bei was?(vergiss das ich will hier keine benches von irgendwelchen seiten sehen) in 1024x768 ist jedes spiel mit so einer karte in höchsten details spielbar selbst in 1280x1024 gibts so gut wie nie probleme mit der performance und das mit 4AA/8AF

dein weit im vorteil sieht wie aus? 120fps gegen 130fps? *schmunzel*

Ich finde es einfach geil das ne GF mehr kann als ne ATI und die ATI user dann kommen und von performance reden die sie nichtmal mitbekommen.

Der preis ist allerdings wirklich ein argument .


Du redest hier von "mehr" können, dabei kriegt man auf einer Geforce weder einen vernünftigen TV-Out, keine fehlerfreien Windows-Treiber, halb zusammengewurschteltes Sli, fehlerhafte Videobeschleunigung und flimmernde Texturen. Was soll denn die Geforce "mehr" können, wenn sie noch nicht einmal grundlegende Sachen richtig beherrscht? :confused: :uclap:

Morpheus2200
2005-03-19, 09:17:51
Du redest hier von "mehr" können, dabei kriegt man auf einer Geforce weder einen vernünftigen TV-Out, keine fehlerfreien Windows-Treiber, halb zusammengewurschteltes Sli, fehlerhafte Videobeschleunigung und flimmernde Texturen. Was soll denn die Geforce "mehr" können, wenn sie noch nicht einmal grundlegende Sachen richtig beherrscht? :confused: :uclap:

Mein TV out funst so wunderbar und da gibts sogar noch ein ne funktion die nennt sich overlay glaub ich :-) Fehlerfreie windowstreiber? Ich konnte keine fehler feststellen vielleicht findet ja irgendein 3d guru nen fehler ich finde ihn nicht. Was soll die gf mehr können? hmm überleg mal selbst was sie mehr kann,(*denkanstoss*AA SM3 ) und das sich in kommenden titeln immer wieder unterschiede zeigen werden ist denke ich auch klar. Was interessiert mich SLI bzw. was hat ati vergleichbares zu bieten, das du das als argument gegen gf heraufbringst?

Video beschleunigung defekt. Ist mir noch nicht aufgefallen das ich dadurch nen nachteil hätte aber klär mich auf.

Dunkeltier
2005-03-19, 09:36:11
Mein TV out funst so wunderbar und da gibts sogar noch ein ne funktion die nennt sich overlay glaub ich :-) Fehlerfreie windowstreiber? Ich konnte keine fehler feststellen vielleicht findet ja irgendein 3d guru nen fehler ich finde ihn nicht. Was soll die gf mehr können? hmm überleg mal selbst was sie mehr kann,(*denkanstoss*AA SM3 ) und das sich in kommenden titeln immer wieder unterschiede zeigen werden ist denke ich auch klar. Was interessiert mich SLI bzw. was hat ati vergleichbares zu bieten, das du das als argument gegen gf heraufbringst?

Video beschleunigung defekt. Ist mir noch nicht aufgefallen das ich dadurch nen nachteil hätte aber klär mich auf.


Du hast wohl noch nie den nVidia TV-Out benutzt, oder? Ich sag nur drei Worte: Flimmrig, Macrovision und beschränkte Auflösung. Für mich ist der einfach unbrauchbar, da schlichtweg Müll.

Schön das du keine Fehler feststellen konntest. Ich sage nur Flimmerbug (der mir in Battlefield 1942 am extremsten ins Auge stach und glücklicherweise später gefixt wurde), ab und an versch. Grafikfehler in "etwas" älteren Spielen, Kompatibilitätsprobleme mit Spielen, Slow-Downs, unübersichtliches Treibermenü. Der Knaller ist ja die dazukaufbare "Videobeschleunigung" - dieser nVidia-Player. :lol:

Denkanstoß mal in deine Richtung, ebenfalls Kantenglättung. ;) Oder 3dc. Kann das 'ne nVidia in Hardware? Nö. Wirds gebraucht? Ja, wohl in Serious Sam 2 und in der ATI-Demo "The Project". Und nun? :smile: Ich kann dir alles auf die Goldwaage legen. :D

Morpheus2200
2005-03-19, 09:38:26
Ber es hilft nichts es hier zu tode zu diskutieren, das hatten wir ja schon öfter hier.

Für mich waren grund für den kauf einer GF SM3, D³, und das Antialaising da ich selber auch mit nem 15"TFT spiele und bei den spielen die ich spiele mehr Qualität mit ner gGF zu holen sind als mit ner ATI.

Jeder soll selber entscheiden was für ihn wichtig ist und was für ihn besser geeignet ist. Die x800Xl ist um den Preis ein richtiges schnäpchen warum sollte man das schlecht machen?! Spielen kann mann mit beiden karten alles mit der einen sieht mann in zukünftigen titeln jedoch mehr als mit der anderen egal wers nicht haben will solls lassen so gross werden die unterschiede nicht sein.

Morpheus2200
2005-03-19, 09:53:59
Du hast wohl noch nie den nVidia TV-Out benutzt, oder? Ich sag nur drei Worte: Flimmrig, Macrovision und beschränkte Auflösung. Für mich ist der einfach unbrauchbar, da schlichtweg Müll.

Schön das du keine Fehler feststellen konntest. Ich sage nur Flimmerbug (der mir in Battlefield 1942 am extremsten ins Auge stach und glücklicherweise später gefixt wurde), ab und an versch. Grafikfehler in "etwas" älteren Spielen, Kompatibilitätsprobleme mit Spielen, Slow-Downs, unübersichtliches Treibermenü. Der Knaller ist ja die dazukaufbare "Videobeschleunigung" - dieser nVidia-Player. :lol:

Denkanstoß mal in deine Richtung, ebenfalls Kantenglättung. ;) Oder 3dc. Kann das 'ne nVidia in Hardware? Nö. Wirds gebraucht? Ja, wohl in Serious Sam 2 und in der ATI-Demo "The Project". Und nun? :smile: Ich kann dir alles auf die Goldwaage legen. :D


hehe wenn du SSE2 und ati demo spielst dann ist ne ati karte natürlich die bessere wahl obwohl das gleich nötig ist wie Trueform. :-P Battlefield spiel ich nicht und wenns gefixt wurde seh ich da kein problem. gabs bei ner Ati noch keiner fehler oder wie? Das treibermenü find ich eigendlich um einiges besser als das CCC von ati. ausserdem mach ich alles mit ATuner und wie ich noch ne Radeon hatte verwendete ich das Rtool ist doch einfacher und schneller.

Der dazukaufbare NVplayer interessiert mich nicht weil ich ihn nicht habe und nicht nutze. Trotzdem habe ich mir noch jedes video und jede DVD angeschaut ohne das ich etwas von nem defekt bemerkt hätte.

Den Fernseher habe ich schon angeschlossen und ich könnte dir jetzt nicht sagen welche karte (9700pro oder 6800GT) jetzt das bessere bild liefern würde.

Achja was ich im letzten post vergass noch eines der hauptgründer das ich mich für eine GF entschied ist das ich öfftermal mit Linux unterwegs bin und da is irgendwie nix anzufangen mit ner ATI


"Denkanstoß mal in deine Richtung, ebenfalls Kantenglättung." Da musst du mich jetzt aber schon schupfen damit ich dir folgen kann.

StefanV
2005-03-19, 10:02:29
Also ich hab mit ner 9700pro alles in 1024x768 und min 2aaund 4 af gespielt jetzt haben wir karten die doppelt so schnell sind und kommst mit dem argument spürbar schneller. bei was?(vergiss das ich will hier keine benches von irgendwelchen seiten sehen) in 1024x768 ist jedes spiel mit so einer karte in höchsten details spielbar selbst in 1280x1024 gibts so gut wie nie probleme mit der performance und das mit 4AA/8AF

dein weit im vorteil sieht wie aus? 120fps gegen 130fps? *schmunzel*

Ich finde es einfach geil das ne GF mehr kann als ne ATI und die ATI user dann kommen und von mehrperformance reden die sie nichtmal mitbekommen.

Mir persönlich ist Qualität wichtiger vorallem wenn leistung im überfluss vorhanden ist ;-)

Der preis ist allerdings wirklich ein argument .

Zu Punkt 1. noch hat das nicht etwas mit dem lod zu tun? Bis jetzt war ich der meinung das die Gf 6 das bessere AF bietet.
Schonmal an die Min FPS gedacht?!

Schonmal dran gedacht, das eine Karte, die weniger 'Durchschnittliche fps' liefert, dennoch gefühlt schneller sein kann?!

Schonmal dran gedacht, das man mehr als einen durchschnittlichen Wert braucht, um 2 Dinge miteinander zu vergleichen...


PS: der TV Out meiner x850 schaut irgendwie auch besser als auf den vorherigen Radeons aus.
Was aber mehr oder minder nur daran liegt, das die vorherigen Radeons einen leichten Rotstich hatten, die x850 nicht (mehr)...

zu Punkt1:
Nein, das liegt einzig und allein daran, das nV große scheiße mit dem AF gebaut hat und versucht hat das 'ATi AF' nachzuahmen, was sie lieber hätten sein lassen sollen...

Achso, noch ein Wort zu den TReibern:

Die sind absoluter Schrott!!
Zum einen weil nV da einige Dinge einbaut, die absolut bescheurt sind, so wird z.B. die Widerholrate bei Games auf 85Hz geforct.

Das ist sehr schön, wenn in der Anleitung des schirms steht, das der bei dieser Auflösung nur maximal 75Hz haben möchte, besonders, wenn dieser jene Monitor das ganze auch noch per DCC Signal korrekt widergibt.

Besonders, wenn dieser Monitor kein Monitor ist, sondern ein Display und man dazu gezwungen wird, das Teil an den DVI Port zu hängen...
Wohl dem, der so einen hat...

StefanV
2005-03-19, 10:07:34
Denkanstoß mal in deine Richtung, ebenfalls Kantenglättung. ;) Oder 3dc. Kann das 'ne nVidia in Hardware? Nö. Wirds gebraucht? Ja, wohl in Serious Sam 2 und in der ATI-Demo "The Project". Und nun? :smile: Ich kann dir alles auf die Goldwaage legen. :D
Wenn 3dc denn genutzt wird, dann ists äußerst sinnig, sogar sinniger als SM3 oder HDR.

Denn den Karten mangelts ja aktuell an Bandbreite, daraus schlussfolgern kann man, das man Kompressionsalgos braucht, die die Bandbreite weniger stark belasten, das ist das Problem #1 bei aktuellen Karten...

3dc ist somit ein kleiner Schritt in die richtige Richtung, was wir aber viel nötiger brauchen ist etwas, das besser als S3TC ist...

Morpheus2200
2005-03-19, 10:08:26
Schonmal an die Min FPS gedacht?!

Schonmal dran gedacht, das eine Karte, die weniger 'Durchschnittliche fps' liefert, dennoch gefühlt schneller sein kann?!

Schonmal dran gedacht, das man mehr als einen durchschnittlichen Wert braucht, um 2 Dinge miteinander zu vergleichen...


PS: der TV Out meiner x850 schaut irgendwie auch besser als auf den vorherigen Radeons aus.
Was aber mehr oder minder nur daran liegt, das die vorherigen Radeons einen leichten Rotstich hatten, die x850 nicht (mehr)...

zu Punkt1:
Nein, das liegt einzig und allein daran, das nV große scheiße mit dem AF gebaut hat und versucht hat das 'ATi AF' nachzuahmen, was sie lieber hätten sein lassen sollen...


Jo gerade diese minmum frames sind in d³ mit ner 6800GT schon wesendlich höher als mit ner X800XTPE ;-) ist doch ein aktuelles spiel und es werden weitere spiele folgen die auf dieser Engine basieren werden;-) aber du wirst mir sicher wieder einige spiele aufzählen können wo ne ATI wieder besser dasteht las es ich glaubs dir.

Morpheus2200
2005-03-19, 10:15:18
Wenn 3dc denn genutzt wird, dann ists äußerst sinnig, sogar sinniger als SM3 oder HDR.

Denn den Karten mangelts ja aktuell an Bandbreite, daraus schlussfolgern kann man, das man Kompressionsalgos braucht, die die Bandbreite weniger stark belasten, das ist das Problem #1 bei aktuellen Karten...

3dc ist somit ein kleiner Schritt in die richtige Richtung, was wir aber viel nötiger brauchen ist etwas, das besser als S3TC ist...

Jo dann sind wir doch froh das es schon in SSSE verwendet wird. Dort braucht mann es ja auch ;-)

Gut wenn es das macht. wenns dann auch spiele gibt in denen es nen vorteil bringt möchte ich es auch haben:-) aber irgendie hört mann nix davon das es so der bringer ist bzw. das irgendein spiel das unterstützen würde. bis das wirklich soweit ist hab ich warscheinlich schon 2x die graka getauscht. SM3 bringt doch was, ein paar optische verbesserungen. Oder bist du da anderer meinung?

AYAlf
2005-03-19, 10:20:04
aus eigener erfahrung kann ich folgendes sagen

die aufruestung von einer geforce 4ti 4400 zu einer 9800xt hat mir einen enormen leistungsschub verpasst.

die letzte aufruestung von einer 9800xt zu einer 6800gt war da eher ernuechternd. leider gab es in meinen lieblingsspielen teilweise kein bemerkbaren leistungsschub.

ich wuerde es lassen und auf eine neue generation hoffen.

ausserdem wirst du die guten treiber von ati schmerzlich vermissen. und das ati-tool. sowas gibt es nicht bei nvidia NICHT.

Morpheus2200
2005-03-19, 10:28:25
aus eigener erfahrung kann ich folgendes sagen

die aufruestung von einer geforce 4ti 4400 zu einer 9800xt hat mir einen enormen leistungsschub verpasst.

die letzte aufruestung von einer 9800xt zu einer 6800gt war da eher ernuechternd. leider gab es in meinen lieblingsspielen teilweise kein bemerkbaren leistungsschub.

ich wuerde es lassen und auf eine neue generation hoffen.

ausserdem wirst du die guten treiber von ati schmerzlich vermissen. und das ati-tool. sowas gibt es nicht bei nvidia NICHT.

also ich konnte schon einen sehr grossen leistungszuwachs erkennen von 9700pro@ 400/360 Darf mann fragen was dein lieblingspiel ist? Ati tool zu übertakten meinst du? ich habne MSI da is von haus aus ein tool dabei das die graka mit Garantie übertaktet 10% oder so. und coolpits ist doch auch ne sichere sache . zum übertakten ist es jedoch sowieso besser wenn mann es selber herausfindet was die graka schafft oder nicht. mittlerweile läuft mein Gf auf 450/ 1200 wenns mal nötig ist dafür brauch ich kein tool um das herauszufinden.

Dr.Dirt
2005-03-19, 10:53:59
dabei kriegt man auf einer Geforce weder einen vernünftigen TV-Out,

Die Qualität des TV-Out bei nVidia ist stark treiberabhängig. Leider hatten sie eine ganze Zeit vergessen, die Auflösung 720x576 zu implementieren, stattdessen gab es solche netten "Features":
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=207045

Silent3sniper
2005-03-24, 13:57:57
Da sehr guten Preis wird es eine 6800gt von Gainward.

Soll ich die GS GLH nehmen, oder die normale?

GS GLH: 349€ 400/1200 1.6ns

GS: 329€ 400/1100 2.0ns


Bitte schnell antworten, ich gehe in 2 Stunden einkaufen...

Gummikuh
2005-03-24, 18:53:22
Ok...nimm die3 GLH, wenns nur 20 Euro mehr sind....

PS:Bestell noch nen Päckchen Ohrenstöppsel mit... :uup:

Silent3sniper
2005-03-24, 18:58:21
---> http://212.227.231.249/watercool/cms/shop_pics/10106.jpg






=)

Gummikuh
2005-03-24, 19:14:06
Hmmm...ok...dann ists ja leise...

SamLombardo
2005-03-24, 21:21:44
Hehe ich finds immer wieder lustig. Stefan Payne und Dunkeltier gegen den Rest der Welt :biggrin:
Aber auch die jetzige "SM3 ist scheiße" Fraktion wird ganz sicher sehr bald ihre Meinung ändern, wenn in einigen Wochen der R520 mit SM3 kommt. Was glaubt Ihr wie schnell dann SM3 zum "Kaufargument Nr. 1 " für Ati mutiert :conf:

nee mal ernsthaft, zum jetzigen Zeitpunkt noch eine SM2.0 Karte zu empfehlen kann nichts mehr mit objektver Betrachtungsweise zu tun haben.

Sam

mbee
2005-03-24, 21:40:45
Nicht unbedingt: Zeig mir ein Spiel, dass auf den (aktuellen) NVIDIA-Karten bei Nutzung der SM3-only-Features nicht abartig in den Keller geht!
Dass SM3 gut ist und dementsprechend eine schnellere Abarbeitung von Shader-Befehlen ermöglicht, nützt einem halt nichts, wenn es die Spiele dann in dieser Hinsicht "übertreiben" und bei mir steckt die eine Grafikkarte nicht zum "Aufgeilen" an technischen Features, die ich nicht vernünftig in Spielen nutzen kann, im Rechner. (Bei anderen Leuten mag dies anders sein.)

Wenn dem nicht so wäre, hätte ich meine XT PE schon längst ausgetauscht. Wenn dies beim R520 dann besser aussieht (durch die höhere Rohleistung), steht dem nichts mehr im Wege. Falls nicht, bleibt mir die Karte eben länger erhalten und ich pfeif auf SM3-only-Features in Spielen mit inaktzeptablen Frame-Rates und warte auf die nächste Generation von NVIDIA oder ATI, mit der es dann vernünftig zu nutzen ist.

Thanatos
2005-03-24, 22:42:22
Die 6800er sind gute Karten, leider werden sie von den buggy NV-Treibern im Stich gelassen.

Ich hatte 7 Monate lang eine 6800GT, in dieser Zeit gab es nicht einen bugfreien nVidia Treiber.

Aus diesem Grund würde ich ATI klar den Vorzug geben.

Also da müsste ich nun wieder dagegen halten, ich nehm so zimmlich jeden neuen treiber mit (bin Neugierig und Testfreudig, also der perfekte Nvidia Fanboy :ugly:) , auch jeden neuen Beta treiber ;)

Aber dennoch haben sie alle bei mir problemlos funktioniert, auch mit meiner alten geforce 4 Ti hatte ich keine.

Also ich bin vollends zufrieden mit den treibern, aber diese entscheidung sollte jeder selbst Treffen ;)

Peleus1
2005-03-25, 01:56:04
Hehe ich finds immer wieder lustig. Stefan Payne und Dunkeltier gegen den Rest der Welt :biggrin:
Aber auch die jetzige "SM3 ist scheiße" Fraktion wird ganz sicher sehr bald ihre Meinung ändern, wenn in einigen Wochen der R520 mit SM3 kommt. Was glaubt Ihr wie schnell dann SM3 zum "Kaufargument Nr. 1 " für Ati mutiert :conf:

nee mal ernsthaft, zum jetzigen Zeitpunkt noch eine SM2.0 Karte zu empfehlen kann nichts mehr mit objektver Betrachtungsweise zu tun haben.

Sam
Ich bin der Meinung SM3 ist schon nen gutes wichtiges Merkmal. Und wenn man es nicht nutzt, dann hat man ja das gleiche wie die ATI-Karten, von daher ist es nur positiv. Aber ich kann auch die Meinungen der Leute verstehen die meinen SM3 ist Müll und unnötig. Es zieht halt Leistung, es ist ja auch ein Feature, das bessere Optik bringt und bessere Optik kostet halt nun mal oft-immer Performance.

Dr.Dirt
2005-03-25, 03:10:28
Also da müsste ich nun wieder dagegen halten, ich nehm so zimmlich jeden neuen treiber mit (bin Neugierig und Testfreudig, also der perfekte Nvidia Fanboy :ugly:) , auch jeden neuen Beta treiber ;)

Aber dennoch haben sie alle bei mir problemlos funktioniert, auch mit meiner alten geforce 4 Ti hatte ich keine.

Also ich bin vollends zufrieden mit den treibern, aber diese entscheidung sollte jeder selbst Treffen ;)

Kann ich mir nicht vorstellen, daß bei Dir alles ohne irgendwelche Probleme lief.

Dr.Dirt
2005-03-25, 03:11:38
Aber auch die jetzige "SM3 ist scheiße" Fraktion wird ganz sicher sehr bald ihre Meinung ändern

Das hat hier niemand behauptet.

Peleus1
2005-03-25, 03:12:21
Ich probier auf jeden Treiber aus, nur den 76.10 nicht, weiss nicht warum bin mit dem 75.90 restlos zufrieden, und ich hatte ausser einem kleinem Installations-Problem nichts. Bei ATI-Karten hatte ich auch keine, entweder hab ich einfach Glück oder ich sehe das halt einfach nicht so ernst.

Dr.Dirt
2005-03-25, 03:16:25
Ich probier auf jeden Treiber aus, nur den 76.10 nicht, weiss nicht warum bin mit dem 75.90 restlos zufrieden, .
Bei dem 75.90 hatte ich zwei bugs, einmal den Temp Bug (für mich eher unwichtig) und zum anderen den Auflösungsbug:
http://home.arcor.de/volker_luetje/HW_Bilder/aufgeblaeht.JPG

Schade, daß die Treiber von nVidia so schlecht sind. :mad:

SamLombardo
2005-03-25, 07:44:43
Zitat von SamLombardo
Aber auch die jetzige "SM3 ist scheiße" Fraktion wird ganz sicher sehr bald ihre Meinung ändern


Zitat von Dr. Dirt
Das hat hier niemand behauptet.

SM3 ist momentan ziemlicher Blödsinn, die nVs sind momentan auch ziemlicher shice.

SamLombardo
2005-03-25, 07:53:24
Zeig mir ein Spiel, dass auf den (aktuellen) NVIDIA-Karten bei Nutzung der SM3-only-Features nicht abartig in den Keller geht!

Splinter Cell Chaos Theory
Mit allen angeschaltenen SM3.0 Features fast genauso schnell wie mit 1.1 und dazu Grafik vom Feinsten. Hier geht gar nix in den Keller. :)

(HDR ist kein SM3.0 Feature, nur ein weiteres optisches Schmankerl was die Atis nicht können (was aber sehr viel Leistung zieht) Also bitte nicht HDR mit SM3.0 in Verbindung bringen. SM3.0 läuft auf heutigen NV Karten mehr als zufridenstellend.)

Gruß Sam

SamLombardo
2005-03-25, 08:07:13
Wenn dem nicht so wäre, hätte ich meine XT PE schon längst ausgetauscht. Wenn dies beim R520 dann besser aussieht (durch die höhere Rohleistung), steht dem nichts mehr im Wege.

Ich rate auch niemandem seine R420 jetzt gegen eine NV auszutauschen. Die XT PE ist eine sehr schnelle Karte, die heutzutage noch (fast, siehe SCCT)völlig ausreicht.
Nur werden solche Beispiele sie Splinter Cell sehr schnell zunehmen, spätestens wenn der R520 da ist und SM3.0 gemeinsamer Standard. Die für 2005 angekündigten Top Games nutzen fast alle SM3.0 (ob sie auch 2.0 nutzen steht in den Sternen, siehe Splinter Cell)
Daher finde ich es mehr als unangebracht aus Gründen der Lagerzugehörigkeit (wirklich objektibve Gründe können es imo nicht sein) Käufern von High End Karten heutzutage eine technisch veraltete SM2.0 Karte zu "empfehlen"

Gruß Sam

mbee
2005-03-25, 10:35:16
Splinter Cell Chaos Theory
Mit allen angeschaltenen SM3.0 Features fast genauso schnell wie mit 1.1 und dazu Grafik vom Feinsten. Hier geht gar nix in den Keller. :)

(HDR ist kein SM3.0 Feature, nur ein weiteres optisches Schmankerl was die Atis nicht können (was aber sehr viel Leistung zieht) Also bitte nicht HDR mit SM3.0 in Verbindung bringen. SM3.0 läuft auf heutigen NV Karten mehr als zufridenstellend.)

Gruß Sam

Danke, das war mir neu (hatte HDR mit SM3.0 in Verbindung gebracht). Ich hatte auch nie behauptet SM3.0 sei auf NV "langsam". Bei FarCry z.B. hat man SM3.0 jedoch so "extensiv" genutzt, dass die NV-Karten von der Rohleistung her (natürlich wären auch die aktuellen ATI-Karten, wenn sie denn SM3.0 hätten nicht schnell genug) zu langsam sind.

Dann soll sich ATI mal mit dem R520 mal beeilen ;)

SamLombardo
2005-03-25, 10:57:08
Dann soll sich ATI mal mit dem R520 mal beeilen ;)

Genau :biggrin: Warte auch schon sehnsüchtig darauf :)

PS: FC wurde auch nur so lahmarschig wenn man HDR zugeschaltet hat.
Vielleicht bringt ja der R520 schnelleres HDR

Gummikuh
2005-03-25, 13:56:23
Man kanns ja auch mal mit Ironie probieren...SM3 ist unwichtig??? ...was haben wir da noch so??

SSE/SSE2/SSE3--->wer brauch sowas?

MMX --->nutzlos

64 BIT CPU ---->wofür denn?

3DNow ---->son Schwachsinn

HTT ---->nutzloser Intel krempel

Komisch...und irgendwann habens trotzdem (fast) alle...seltsam oder :uconf2:

Und jupp...es würde mich echt nicht wundern, wenn so mancher, der jetzt noch sagt "SM3 brauch keine Sau" beim Release des R520 seine jetzige ATI bei e-Bay reinsetzt und sich flugs ne neue Graka holt...und warum...ja...die hat ja SM3...ne :uup:

mbee
2005-03-25, 14:18:36
Dass SM3 unwichtig ist, behauptet ja keiner. Es geht immer um den konkreten Nutzen, den man aus solchen Features momentan ziehen kann. Wenn NVIDIA SM3 wie bei SC3 weiter pushen kann und das ganze dabei vernünftig eingesetzt wird, gut so!
Dein Beispielt mit der 64 BIT-CPU ist in Deinem Sinne ein denkbar schlechtes!
Ich habe auch einen Athlon64, allerdings wegen der guten Leistung im 32BIT-Betrieb. Voraussichtlich werde ich nicht einmal auf XP 64 umsteigen, obwohl ich es durch das MSDN so oder bekomme, da bis zum Launch von Longhorn wohl kaum genug vernünftige Anwendungen dafür exisitieren werden und die 64 BIT ohne entsprechende Anwendungen auf Betriebssystemebene überhaupt nichts bringen...
Eine XT PE habe ich mir z.B. auch nur angeschafft, weil ich Spiele auf meinem TFT ohne Interpolation unter 1600x1200 spiele und mir in diesem Fall die (wenn auch sehr teure) Mehrleistung das Vergnügen wert war und nicht wegen irgendwelcher Benchmarkzahlen. Sonst hätte es auch eine Pro oder eine 6800er getan (die in diesem Fall wegen des früheren Einbruchs bei hohen Auflösungen + AA/AF die schlechtere Wahl gewesen wäre bzw. immer noch ist).

Gummikuh
2005-03-25, 15:22:47
Wieso ist das mit 64BIT CPU nen schlechtes Beispiel...im allerersten Satz von mir steht das Wort Ironie...wer sich an diesen Beispielen ernsthaft aufzieht ist selber Schuld...

der letzte Satz ist allerdings ernst gemeint...

Thanatos
2005-03-25, 15:23:38
MMX --->nutzlos



:unono:

ich hab in nen uralt Computer 33mhz X-D , nen neues Modem reinbauen sollen, aber das funktionierte nicht, weil die cpu kein MMX konnte X-D

Aber ich glaub sowieso dass der kleine chip der auf dem modem war, schneller war als der ganze PX :ulol:

SamLombardo
2005-03-25, 15:26:30
Wieso ist das mit 64BIT CPU nen schlechtes Beispiel
der letzte Satz ist allerdings ernst gemeint...

Weil die anderen Features in deiner Liste wirklich "alle" haben nur 64 bit niemand :)
Insofern hat mbee hier imo Recht.

Dein letzter Satz triffts allerdings ebenso auf den Punkt. genau so wird es kommen :)

Gummikuh
2005-03-25, 15:28:25
Weil die anderen Features in deiner Liste wirklich "alle" haben nur 64 bit niemand :)
Insofern hat mbee hier imo Recht.


Ohh...jetzt versteh ichs...sorry...hab auf ner langen leitung gesessen... :uconf3:

Gummikuh
2005-03-25, 15:30:43
:unono:

ich hab in nen uralt Computer 33mhz X-D , nen neues Modem reinbauen sollen, aber das funktionierte nicht, weil die cpu kein MMX konnte X-D

Aber ich glaub sowieso dass der kleine chip der auf dem modem war, schneller war als der ganze PX :ulol:

Modem...da fällt mir auch was zu ein...

Win XP Fehlermeldung: ihr Modem wird nicht unterstützt, laden sie sich bitte die neuesten Treiber aus dem Internet herunter. :ufinger:

Nee...echt klar...was sonst... :uhammer: :ucrazy4:

Dunkeltier
2005-03-25, 15:31:46
Ich rate auch niemandem seine R420 jetzt gegen eine NV auszutauschen. Die XT PE ist eine sehr schnelle Karte, die heutzutage noch (fast, siehe SCCT)völlig ausreicht.
Nur werden solche Beispiele sie Splinter Cell sehr schnell zunehmen, spätestens wenn der R520 da ist und SM3.0 gemeinsamer Standard. Die für 2005 angekündigten Top Games nutzen fast alle SM3.0 (ob sie auch 2.0 nutzen steht in den Sternen, siehe Splinter Cell)
Daher finde ich es mehr als unangebracht aus Gründen der Lagerzugehörigkeit (wirklich objektibve Gründe können es imo nicht sein) Käufern von High End Karten heutzutage eine technisch veraltete SM2.0 Karte zu "empfehlen"

Gruß Sam


Tja, ich habe es geschafft meinen knauserigen Nachbarn eine Radeon X800 XL aufzuschwatzen. :) Damit wird er garantiert nicht unglücklich. Insbesondere, da es Preis-/ Leistungsmäßig für ihn die beste Wahl darstellt. Von den leisen Lüftern, ViVo (wichtig für seine analoge Kamera) und den günstigen Preis mal abgesehen hätte nVidia eh nichts in der um die 300 Euro (285 Euro) Sparte für PCIe. Spielen tut er hauptsächlich D3D Games.

mbee
2005-03-25, 15:35:34
Wieso ist das mit 64BIT CPU nen schlechtes Beispiel...im allerersten Satz von mir steht das Wort Ironie...wer sich an diesen Beispielen ernsthaft aufzieht ist selber Schuld...

der letzte Satz ist allerdings ernst gemeint...

Wenn "64 Bit -----> wofür denn?" ironisch gemeint ist, sagt man ja meist das Gegenteil vom Geschriebenen aus, deshalb habe ich das so aufgefasst. Momentan hat das ja wirklich keinen Nutzen. Mit dem letzten Satz hast Du höchstwahrscheinlich recht ;)

SamLombardo
2005-03-25, 15:36:11
Tja, ich habe es geschafft meinen knauserigen Nachbarn eine Radeon X800 XL aufzuschwatzen.
Hehe :D Für die meisten heutigen Games eine Gute Wahl.
Außerdem, wie Du schon geasgt hast, ist das Preis-Leistungs Verhältnis super. Bestreitet niemand, und ich am aller wenigsten :)

So long, Sam

Dunkeltier
2005-03-25, 15:38:51
Hehe :D Für die meisten heutigen Games eine Gute Wahl.
Außerdem, wie Du schon geasgt hast, ist das Preis-Leistungs Verhältnis super. Bestreitet niemand, und ich am aller wenigsten :)

So long, Sam


Ne, auch für die zukünftigen. Und komm mir jetzt bitte nicht wieder mit SM3.0. ;D

SamLombardo
2005-03-25, 15:41:15
Ne, auch für die zukünftigen. Und komm mir jetzt bitte nicht wieder mit SM3.0. ;D
Das sehen wir in ein paar Monaten. Abwarten und Tee rauchen :smile:

Dunkeltier
2005-03-25, 15:49:00
Das sehen wir in ein paar Monaten. Abwarten und Tee rauchen :smile:


Erinnert mich ein wenig an AMD64 (auch schon ein paar Jährchen auf dem Markt) oder nVidia's T&L damals. :rolleyes: Aber die Zeit ist bekanntlich geduldig. Bis eine richtige Marktdurchdringung gegeben ist, gehört die heutige Hardware eh schon wieder zum alten Eisen. Siehe zum Beispiel AMD Athlon 64 S754 Prozessoren oder die guten, alten Geforce 1+2 Bretter.

SamLombardo
2005-03-25, 15:55:59
Erinnert mich ein wenig an AMD64 (auch schon ein paar Jährchen auf dem Markt) oder nVidia's T&L damals.
Könnte aber auch laufen wie bei SM2.0 (was ich eher glaube). Das hat sich schneller durchgesetzt als viele (mich eingeschlossen) glauben wollten und die ersten SM2.0 Karten (R300) halten auch heute noch Super mit. Wie gesagt, We will see :)

Gummikuh
2005-03-25, 16:06:11
Ne, auch für die zukünftigen. Und komm mir jetzt bitte nicht wieder mit SM3.0. ;D

Ok...dann komme ich :biggrin: ...mit ner nicht SM3.0 Graka musste auf paar Effekte verzichten :sneak:

Peleus1
2005-03-25, 16:07:09
Ja aber du musst evtl. durch die Sm3 Effekte auf ne höhere Auflösung oder AA/AF verzichten. Im Endeffekt ist es sinnlos sich da zu streiten, da beide Seiten doch gute Argumente haben.

Gummikuh
2005-03-25, 16:08:12
Stimmt :uup: dann zocken wir eben in 640x480 :comfort:

EDIT: Stichwort Auflösungsrecycling... :ucatch:

Peleus1
2005-03-25, 16:10:56
Naja, FC musste ich wegen HDR ohne AA/AF spielen, und dann stellt sich halt schon die Frage ob Nvidia überhaupt die Performance hat. Aber ich bleib dabei: Wer die Effekte nicht will muss sie ja nicht aktivieren.

Gummikuh
2005-03-25, 16:15:05
Hmm...das ne 6800 für HDR net so den Speed hat ist nicht ganz so neu...ähmm...ist auch nen ziemlich neues Feauture und wird wohl mit der nächsten oder übernächsten Grafikkartengeneration so richtig interessant, dann kannste 1280x1024 8xAA/16xAF und HDR zocken :uup:

Peleus1
2005-03-25, 16:16:46
Naja die Frage ist eigentlich :
Lohnt es sich auf AA/AF zu verzichten um die SM3 Effekte reinzuhauen ?

Und ich denke auch die neuen Generationen haben dann genug Power dafür.

Gummikuh
2005-03-25, 16:21:23
Ähmmm...der NV40 hat doch HDR in Hardware richtig???Hab das mal wo gelesen...von daher ists ja im Grunde kein SM3 Effekt...kannst ja bei ner ATI x800 auch HDR über SM2 darstellen...ist aber nen anderes HDR wie auf ner 6800er...

Hmmm...kann schon passieren, dass man bei nen SM3 Game auf AA/AF verzichten muss, damit es richtig flüssig läuft...

Peleus1
2005-03-25, 16:22:56
Das war ja nicht nur auf FC bezogen, das kannst du für jedes andere SM3 Spiel nehmen.

Gummikuh
2005-03-25, 16:27:24
Na ja...bei Far Cry kannste schön AA/AF reinhauen...muss man eben nur HDR weglassen...

Interessant wirds dann bei den reinrassigen SM3 Games...mal sehen was dann so abgeht (oder auch nicht). :|

SamLombardo
2005-03-25, 17:00:06
Naja die Frage ist eigentlich :
Lohnt es sich auf AA/AF zu verzichten um die SM3 Effekte reinzuhauen ?


Nochmal: HDR ist KEIN SM3.0 Effekt. Es ist ein weiteres Feature welches die Atis nicht können (und was zugegeben viel leistung frisst). Aber es hat gar nix mit SM3.0 zu tun!
Und wenn man SM3.0 Effekte genießen will braucht man keineswegs auf AA/AF zu verzichten, da SM3.0 auf den aktuellen NV Highend Karten sehr ordentlich läuft (siehe SC3, welches mit ALLEN SM3.0 Effekten fast genauso schnell ist wie mit SM1.1).

Gruß Sam