PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche Graka soll ich nehmen?


ZeRoTwO
2003-04-23, 02:43:31
Ich zocke oft und wollte mir mal ne neue Graka gönnen. Meine GF 2 Ti von ELSA stößt langsam aber sicher an ihre Grenzen. Da ich gehört/gelesen habe, dass EA z.B. mit nVIDIA enger zusammenarbeiten wird, sollte es unbedingt ne GeForce sein. ATI hat zwar Leistung zu genüge, aber bei mir soll das Game flüssig laufen. Und wenn es bei ner GF4 flüssig läuft brauch ich auch keine ATI.

Egal. Welchen Chip empfehlt ihr mir? Welcher Hersteller bietet die bessere Ausstattung/Leistung?

Also ich kann mich nicht zwischen Ti4200 8x, Ti4600 und Ti5200 entscheiden.

Die GF FX 5200 unterstützt DX9 und ist günstig. Ist sie besser als die GF4 4200? Oder soll ich doch zur 4600 bzw als 8x AGP die 4800 nehmen?


Vielen Dank schonmal an alle!

PS: Versucht mir nicht eine ATI schönzureden, will sie wirklich nicht!

Mr. Lolman
2003-04-23, 03:07:26
Die 5200 ist Schrott, eher fast ein Downgrade und die DX9 Effekte kannst du deshalb vergessen. Die Mehrleistung einer Ti4600 steht in keinen gutem Verhältniss zum höherem Preis vgl. mit der 4200. Also eindeutig Ti4200.

ZeRoTwO
2003-04-23, 03:10:49
Und welcher Hersteller? Die Übertaktete ASUS? Eine von Albatron? Leadtek? Gainward?

mapel110
2003-04-23, 03:15:16
Originally posted by ZeRoTwO
Und welcher Hersteller? Die Übertaktete ASUS? Eine von Albatron? Leadtek? Gainward?

die billigste, sonst isses wirklich rausgeschmissenes geld

gibts ab 110 €, mit 128 mb ab 130 €.

Radeonator
2003-04-23, 06:08:58
Hmmm, da glaubt wohl einer jedes NV PR Märchen...
Hab bisher mit keinem EA Spiel ein Prob gehabt, liegt aber wohl an der gesammt Konfig meines PC´s ;)

ZeRoTwO
2003-04-23, 13:38:34
Ich glaube schon das EA mit NV zusammenarbeiten wird und dass ATI dann den kürzeren ziehen wird. Ich denk da ma an UT2003. Natürlich fänd ich es besser, wenn man mehr auf ATI setzen würde, tut man aber net. NV arbeitet mit AMD zusammen und wird auch mit EA enger zusammenarbeiten, dass steht für mich außer Frage!

Egal, dass gehört hier auch garnicht hin.

Was haltet ihr von ner Gainward Geforce 4 TI 4600 mit 128MB? Komm ich günstig dran. Fast so günstig wie die 4200.

Riptor
2003-04-23, 16:56:05
Originally posted by ZeRoTwO
Ich glaube schon das EA mit NV zusammenarbeiten wird und dass ATI dann den kürzeren ziehen wird.

Und was soll das heißen? EA Games werden nicht auf ATI-Karten laufen? Sorry, aber ich kann dir nur eine 130€ GF4Ti4200-8X empfehlen, der Rest ist nicht wirklich sein Geld wert. Zumal nVidia von den Effekten der GFFX spricht, nicht von den DX8-GF4Ti-Karten... ;) Aber jeder, wie er meint.

Ich denk da ma an UT2003.

So? Läuft UT2K3 auf ner Radeon schlechter, als auf ner GeForce?

Was haltet ihr von ner Gainward Geforce 4 TI 4600 mit 128MB? Komm ich günstig dran. Fast so günstig wie die 4200.

Was heißt "günstig"? :) Für unter 175€ würde ich bei der Karte zuschlagen.

person in the mirror
2003-04-23, 18:11:15
Selbst schuld, wenn du dir keine Radeon kaufst :)

EA wird mit nVidia zusammenarbeiten, was aber nicht heißt, dass die Spiele auf ATi Karten schlecht aussehen werden. Sonst würden die eine Menge Käufer verlieren. So dumm ist glaube ich nicht einmal EA.

mapel110
2003-04-23, 18:19:19
Originally posted by person in the mirror
Selbst schuld, wenn du dir keine Radeon kaufst :)

EA wird mit nVidia zusammenarbeiten, was aber nicht heißt, dass die Spiele auf ATi Karten schlecht aussehen werden. Sonst würden die eine Menge Käufer verlieren. So dumm ist glaube ich nicht einmal EA.

nvidia arbeit schon die letzten jahre mit softwareherstellern aller art zusammen. und was hats gebracht ? hier und da ein patch mehr für ati-karten.
splinter cell ist afaik das einzige game, dass bislang ein zusatzfeature für g4 karten hat, was allerdings wohl an ati liegt. denn die könnten dieses feature auch in ihre treiber packen.
ist halt ein "kann" kein "muss" feature.

screenshots davon hab ich allerdings noch nirgens gesehen.
hat jemand nen link ?

person in the mirror
2003-04-23, 18:22:36
Das ist jetzt ein wenig OT, aber:
nVidia hat ja auch Linux-Treiber. Sind die eigentlich Open Source? Wenn ja, sollte es für ATI kein Problem sein, eventuelle "Zusatz-Features" ins nächste Treiber-Update zu bauen ;)

Salvee
2003-04-23, 18:27:16
Originally posted by mapel110
screenshots davon hab ich allerdings noch nirgens gesehen.
hat jemand nen link ?

Seraf hatte es schonmal gepostet iirc.

NV20+ (http://forum.hwupgrade.it/download.php?id=8563)
ATi & Co. (http://forum.hwupgrade.it/download.php?id=8565)

@person in the mirror
Kein open source, das wäre zu schön, um war zu sein :)

mapel110
2003-04-23, 18:29:28
Originally posted by Salvee


Seraf hatte es schonmal gepostet iirc.

NV20+ (http://forum.hwupgrade.it/download.php?id=8563)
ATi & Co. (http://forum.hwupgrade.it/download.php?id=8565)

@person in the mirror
Kein open source, das wäre zu schön, um war zu sein :)

:o
na das nenn ich doch mal optischen mehrwert

Omnicron
2003-04-23, 18:32:02
Und wenn du dich davorstellst, "fließt" das Licht und der Schatten auch über dein Gesicht, sehr geil.

LovesuckZ
2003-04-23, 18:33:18
Da wird man ja mitner radeon irgendwie neidisch...

Salvee
2003-04-23, 18:36:08
Der bewegendste Effekt sind die bewegten Schatten auf sich bewegenden Vorhängen, Screens dazu kann ich leider nicht anbieten.

person in the mirror
2003-04-23, 18:47:04
Hm, seid ihr sicher, dass das nur bei nVidia Karten so ist? Möglicherweise gibt es einen Patch (oder ähnliches) für ATI Karten?

Die Screens sind schön, ich würde aber trotzdem nicht die monopolistische Politik nVidias unterstützen ;)

mapel110
2003-04-23, 18:48:43
Originally posted by person in the mirror
Hm, seid ihr sicher, dass das nur bei nVidia Karten so ist? Möglicherweise gibt es einen Patch (oder ähnliches) für ATI Karten?

Die Screens sind schön, ich würde aber trotzdem nicht die monopolistische Politik nVidias unterstützen ;)

gibt keinen patch. ati unterstützt das feature im treiber nicht, obwohl es technisch machbar wäre.

Aquaschaf
2003-04-23, 19:48:52
Originally posted by LovesuckZ
Da wird man ja mitner radeon irgendwie neidisch...

mit ner geforce FX müsste man dann ja auch neidisch werden du flamer :D

Iceman346
2003-04-23, 19:55:01
Originally posted by mapel110


gibt keinen patch. ati unterstützt das feature im treiber nicht, obwohl es technisch machbar wäre.

Afaik aber erst ab dem R300, nicht mit den vorigen Chips. (sagte Demiurg meine ich mal)

zeckensack
2003-04-23, 20:01:32
Originally posted by Iceman346


Afaik aber erst ab dem R300, nicht mit den vorigen Chips. (sagte Demiurg meine ich mal) Was Demirug auch noch gesagt hat, war daß es nicht unbedingt am Wollen liegt, sondern irgendeine komische Spiel/DX9/Treiber-Interaktionsgschichtn (TM) ist, durch die sich das Feature wohl nicht sauber erkennen und nutzen läßt.

Merke: verlasse dich nie auf die Design-Kompetenz von Microsoft :|

Demirug
2003-04-23, 20:07:14
Ein R300 muss es schon sein und ja zeckensack die DX Spezifikation enthält keine Schadow buffers. Es gibt jedoch einen weg den MS abgesegnet hat und den NVIDIA benutzt. Eine Texture welche als Format ein Z-Buffer Format hat ist ein Shadow buffer und wird dementsprechend behandelt. ATI könnte das genauso einbauen sie müssten nur wollen

Schreck
2003-04-23, 20:42:00
Wie siehts mit der Framerate aus? Ist die schöne Grafik auch bei 1280 noch spielbar oder muß man um eine oder zwei Auflösungsstufen zurückschalten?

LovesuckZ
2003-04-23, 22:10:51
Originally posted by Aquaschaf
mit ner geforce FX müsste man dann ja auch neidisch werden du flamer :D

???

ZeRoTwO
2003-04-23, 22:45:33
Das ist ja die scheisse bei ATI!
Ich sage nicht, dass ATI Scheiße baut, vielmehr ist man von NV enttäuscht(siehe GF FX). Ich hoffe auch, dass in Zukunft mehr auf ATI gebaut wird, weil die GPU's wirklich nicht schlecht sind. Aber im Moment greife ich lieber zu einer NV, weil ich keine Lust habe auf Patches zu warten, um eine schöne Grafik zu erhalten. Und dass man mit ner ATI die gleichen Details darstellen könnte bestreite ich auch nicht, nur man muss auf ein Patch oder Treiberupdate warten. Also im jetzt kommt keine ATI in meinen Rechner, aber vielleicht später!


Dann wollte ich noch wissen, ob man für GF4 auch ein OC-BIOS bekommen kann und wenn ja von wo?

LovesuckZ
2003-04-23, 22:48:23
Originally posted by ZeRoTwO
Dann wollte ich noch wissen, ob man für GF4 auch ein OC-BIOS bekommen kann und wenn ja von wo?

Bei den meisten GF4TI Karten benoetigt du kein OC-Bios, da sie nicht gelockt sind.

Omnicron
2003-04-23, 22:57:45
Originally posted by LovesuckZ


Bei den meisten GF4TI Karten benoetigt du kein OC-Bios, da sie nicht gelockt sind.

Gibs denn überhaupt welche die gelockt sind ???

ZeRoTwO
2003-04-23, 22:58:43
Ja ist schon klar, wollte aber gern wissen von wo ich des herbekomme.

PS: Sag ma wo finde ich dieses nette Bild was du da hast?

LovesuckZ
2003-04-23, 22:58:56
Originally posted by Omnicron
Gibs denn überhaupt welche die gelockt sind ???

KA, ich wollt mir nur nen hintertuerschen offen lassen :)

mapel110
2003-04-23, 23:09:02
soweit mir bekannt ist, gabs und gibts solche geforce karten bislang nicht.

Riptor
2003-04-23, 23:18:15
Originally posted by ZeRoTwO
Ja ist schon klar, wollte aber gern wissen von wo ich des herbekomme.

Ähem... Wozu willst du die Karte flashen? Man kann die Karte doch GANZ EINFACH übertakten und wer feste Werte will, der holt sich nen Tool und patch es, fertig.

@ Splinter Cell: Beeindruckend, wenn das so weiter geht, verkauf ich meine Radeon 9500 Pro und hole mir eine nVidia-Karte. NUR: Was soll ich mir holen? :) Eine 450€ GFFX 5800 (über die Ultra will ich jetzt mal kein Wort verlieren...)? Eine GFFX 5600 Ultra (wäre 250€ teuer und deutlich langsamer als meine R9500 Pro...)? Eine GF4Ti kommt mir nicht ins Haus, wäre ja noch ein größerer downgrade, vor allem, weil ich ohne AF nicht leben kann. Mehr hat nVidia ja grad auch nicht zu bieten, was mich interessieren könnte... *grummel* Vllt kann der NV36 ja was biegen oder die GFFX 5800 kommt irgendwann in 100 Jahren in die 200€ Preisregion.
Was ATI angeht: Die lassen sich grad die Butter vom Brot streichen... Jedenfalls kommts mir so vor. Mit dem R300 haben sie wahrlich gute Arbeit geleistet (ich rede allerdings nur von den 8 Pipes-Versionen, nicht von den missglückten Verstümmelungen à la R9500 64MB...) und auch R350/RV350 können überzeugen. Auch habe ich bisher in keinem Game Probleme mit Treibern gehabt, noch habe ich irgendwelche anderen Probleme erlebt. Nur: Wenns jetzt nVidia weiter die Fäden zieht, dann könnte es sein, dass folgende Situation eintritt:

a) Gute GPUs mit etwas schlechterer "Spielekompatibilität" (so nenne ich mal die Situation in SC) aus dem Hause ATI

b) Schlechtere GPUs mit besserer "Spielekompatibilität" aus dem Hause nVidia

Toll... Und was bringt mir das? Wird wohl Zeit, dass ich mich wieder bei meinen alten Konsoleros umschaue, der Hickhack beginnt ja demnächst Ausmaße anzunehmen und ne Konsole kostet mich höchstens 200 €uron€n... *grrr*

Riptor
2003-04-23, 23:24:53
Ach noch was: Sowas gilt in erster Linie aber nur für XBOX-Konvertierungen, da kann nVidia klar bessere Ergebnisse erzielen, wenn sie wollen... Was den Rest angeht: Da wünsche ich mir doch ein wenig mehr Offensive seitens der Hersteller, kann ja wohl nicht angehen, dass mit den ATI-Karten nur AF/FSAA vorbildlich klappt und der Rest der Fähigkeiten ignoriert wird. Und NEIN, ich will jetzt auch keine Diskussion, wer hier schuld sei und wer nicht!

Aquaschaf
2003-04-23, 23:35:00
Originally posted by LovesuckZ


???

soweit ich mich erinnere sind diese effekte momentan auf der FX reihe auch nicht zu sehen .

Radeonator
2003-04-23, 23:36:53
Originally posted by Schreck
Wie siehts mit der Framerate aus? Ist die schöne Grafik auch bei 1280 noch spielbar oder muß man um eine oder zwei Auflösungsstufen zurückschalten?

Eben, da hat der Picture macher wohl "zufällig" und leider vergessen mal Stat fps in die Konsole zu hacken...warum wohl ;)

Riptor
2003-04-23, 23:48:34
Originally posted by Radeonator
Eben, da hat der Picture macher wohl "zufällig" und leider vergessen mal Stat fps in die Konsole zu hacken...warum wohl ;)

Das ist irgendwie das Prob, dass ich anspreche: Die nVidia-GPUs (bis auf GFFX 5800, aber die paßt nicht in den Geldbeutel) sind einfach zu lahm, als dass sie mit solchen Effekten umgehen könnten. Zwar sieht das dann besser aus, aber was bringts, wenn die FPS dann wieder hinter den Kohlen im Keller zu finden sind?

LovesuckZ
2003-04-24, 00:33:23
Originally posted by Radeonator
Eben, da hat der Picture macher wohl "zufällig" und leider vergessen mal Stat fps in die Konsole zu hacken...warum wohl ;)

Bei der Qualitaetssteigerung nehme ich ein paar Frames weniger in kauf.

LovesuckZ
2003-04-24, 00:35:19
Originally posted by Riptor
b) Schlechtere GPUs mit besserer "Spielekompatibilität" aus dem Hause nVidia


Es kommt drauf an, wie man "schlechtere GPU" definiert. Speed oder Technologie... Speed besitzen die neuen Nvidiakarten nur unter OpenGL.

Aquaschaf
2003-04-24, 10:38:44
wenn man von der besseren Technologie nichts merkt würde ich eine schlechte GPU eher dadurch definieren , dass sie langsam ist ...

Unregistered
2003-04-24, 12:56:49
Originally posted by LovesuckZ


Bei der Qualitaetssteigerung nehme ich ein paar Frames weniger in kauf.

Ist ja lustig...

IMHO sieht Splinter Cell zumindest auf der GF3/GF4 immer noch schlechter aus als auf der R300.

Lichtstrahlen sind auf der GeForce wie Kanthölzer mit harten Rändern durch die Szene "getrieben", auf der Radeon scheint das Licht sehr weich. Das machen die zusätzlichen Schatten, die mit dem meisten Detonatoren auch noch fehlerhaft dargestellt werden, auch nicht mehr wett.

Schön darüber geredet zu haben, eigentlich hätte das auch anderen auffallen müssen, die den Vergleich haben.

person in the mirror
2003-04-24, 14:16:27
Originally posted by Riptor
Wenns jetzt nVidia weiter die Fäden zieht, dann könnte es sein, dass folgende Situation eintritt:

a) Gute GPUs mit etwas schlechterer "Spielekompatibilität" (so nenne ich mal die Situation in SC) aus dem Hause ATI

b) Schlechtere GPUs mit besserer "Spielekompatibilität" aus dem Hause nVidia
Ja, das denke ich mir auch. Vergleichbares Beispiel wäre ja auch Microsoft: Schlechtes Betriebssystem, aber Spiele-Monopol :(

Dass Linux auch für Spiele geeignet wäre zeigt z.B. UT2003.

Edit: Leider ist Linux aber nicht Idioten-geeignet *g*
Im Gegensatz zu Windows "versteckt" es seinen Funktionsumfang nicht. Aber ich kann es gut nachvollziehen, wenn Otto-Normal-DAU keine Zeit und Lust hat, sich damit zu befassen.
Aber die Entwickler könnten ja trotzdem ab und zu Gnade haben und das Spiel unter Linux zum Laufen bringen ;)

StefanV
2003-04-24, 14:34:13
Originally posted by LovesuckZ
Es kommt drauf an, wie man "schlechtere GPU" definiert. Speed oder Technologie... Speed besitzen die neuen Nvidiakarten nur unter OpenGL.

Jo, schon scheiße, wenn die Low Cost GPU der Konkurenz genauso viele VS Instruktionen/Takt schafft, wie das eigene High End Modell...