PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : pci-e Grafikkarte um 125€


fin_dd
2006-01-06, 20:16:56
Hallo werte Community!

Da mir etwas Geld zugesteckt wurde, will ich die integrierte Grafiklösung meines Mainboards endlich in Rente schicken. Etwas umsehen bei geizhals und der Blick auf die zur Verfügung stehenden 125€ haben mich zu folgenden beiden Modellen geführt.

MSI RX800 TD128E
http://www.geizhals.at/deutschland/a134707.html

oder

MSI RX1600pro TD256€
http://www.geizhals.at/deutschland/a176220.html

welche von beiden ist die bessere Wahl? vor allem mit Augenmerk auf World of Warcraft.

StefanV
2006-01-06, 20:19:45
Für WoW würd ich auf alle Fälle die RX1600 PRO nehmen -> besseres AF

Odal
2006-01-06, 21:37:47
x1600pro ist ne krüppelkarte finger weg ^^

StefanV
2006-01-06, 21:40:31
x1600pro ist ne krüppelkarte finger weg ^^
'ne x1800 zu teuer und WoW reagiert stark auf Winkelabhängiges AF.

Odal
2006-01-06, 21:44:54
naja wenn er nur WOW spielt und wegen winkelunabhängigem AF
FX5900(XT) von ebay für ca. 60€

Popeljoe
2006-01-06, 22:32:32
naja wenn er nur WOW spielt und wegen winkelunabhängigem AF
FX5900(XT) von ebay für ca. 60€
Stark!
Die gibts also auch schon für PCI E? :usweet:
;)
P1

StefanV
2006-01-06, 22:37:19
Stark!
Die gibts also auch schon für PCI E? :usweet:
;)
P1
Ja, gibts.
Ist aber äußerst selten, hab bei eBay Doitschland auffe schnelle nur eine gefunden.

Ist übrigens eine äußerst lange, mit HSI übersetzte Karte :ugly:

Odal
2006-01-06, 22:37:23
ups ok stimmt ja es geht um eine pci-e Karte

dann sollte er noch 5€ sparen und sich eine 6600GT kaufen die steckt die x1600PRO locker in die Tasche

StefanV
2006-01-06, 22:45:25
dann sollte er noch 5€ sparen und sich eine 6600GT kaufen die steckt die x1600PRO locker in die Tasche
Nö, nicht immer :rolleyes:

BUG
2006-01-06, 22:50:53
..würde die X1600Pro von MSI kaufen, so schlecht is die Karte nich, kann bei neueren Games zur 6600GT aufschließen oder gar leicht hinter sich lassen (FEAR). Für ältere Games reicht die Karte imho auch dicke solang man es mit AF + FSAA und hohen Auflösungen nicht übertreibt. Knapp 120,- Euro finde ich für die MSI X1600Pro DDR2 durchaus angemessen! :up:

cu
BUG

Odal
2006-01-06, 23:20:57
FEAR kannste mit den Gurken sowieso nicht anständig spielen

und eine PRO (nicht XT) ist definitiv langsamer auch in neuen Games als eine 6600GT

StefanV
2006-01-06, 23:32:42
FEAR kannste mit den Gurken sowieso nicht anständig spielen
Mit oder ohne Schatten? :devil:

BUG
2006-01-06, 23:41:20
FEAR kannste mit den Gurken sowieso nicht anständig spielen..das geht sehr wohl, vieleicht nicht mit alles auf High aber ne Mischung aus Medium und High ohne Soft Shadows is durchaus drinn (auch mit der Pro)!

..und eine PRO (nicht XT) ist definitiv langsamer auch in neuen Games als eine 6600GT..ist sie nicht bzw. wird sie nicht sein, je mehr Shaderlast desdo besser wird die X1600Pro/XT ggü der 6600GT abschneiden! :)

cu
BUG

Odal
2006-01-07, 00:01:36
wenn du bei FEAR die Details Runterschraubst profitiert die x1600 auch nichtmehr von ihrer shader"stärke" und mit unter 30 FPS nen Shooter dahinruckeln zu lassen sollte sich keiner geben. Und AA ganz abzuschalten da bekommt man ja Augenkrebs.

joa klar könnte die PRO tendentiell in künftigen Spielen näher an die 6600GT rankommen (derzeit liegt sie ca. 15-20% drunter im Schnitt) wenn mehr Shader ins Spiel kommen. Aber seien wir doch mal ehrlich, das Teil ist jetzt schon zu schwach um anspruchsvolle Spiele flüssig zu spielen, wie soll das erst in späteren noch hardwarefordernden Spielen werden? Ob das ding (spiel) später nun mit 15FPS vor sich hinruckelt oder dank etwas besserer shaderstärke mit 17FPS macht den Kohl auch nicht fett.

man sollte gucken was man jetzt wie damit spielen kann und da sieht es bei der PRO schon recht dürftig aus (ausser man ist sehr anspruchslos)

fin_dd
2006-01-07, 00:33:23
also danke schonmal für eure zahlreichen Antworten, aber....ich spiele keine Shooter. nix Fear...nix Doom3...nix HL2!

wichtig ist mir vor allem WoW. 1024er (bald 1280er) Auflösung mit max Details, max Sichtweite und aktivierten Shadern. Wenn es dann noch zu AA & AF reicht ist das schön.
ausserdem interessant ist noch die Leistungs bei AoE3.

und jetzt noch eine Frage:
ich habe hier einen Artikel gefunden zu den neuen x1xxx Karten von Ati

computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/17/#abschnitt_splinter_cell_3)

da kämpft eine x1600xt gegen die x800...öhem..ja, wie soll man das verstehen? Ati bringt eine neue Midrangekarte auf den Markt, die nicht einmal den Vorgänger schlagen kann

Odal
2006-01-07, 00:55:15
joa das ist so die X1600 ist nunmal ne krüppelkarte ;)

da du gerade AOE 3 erwähnst

http://img2.pcpop.com/ArticleImages/0x0/0/153/000153511.jpg
http://img2.pcpop.com/ArticleImages/0x0/0/153/000153509.jpg

da ist leider keine Pro getestet nur die XT

bei der pro kannste nochmal 17-20% abziehen

BUG
2006-01-07, 00:55:51
wenn du bei FEAR die Details Runterschraubst profitiert die x1600 auch nichtmehr von ihrer shader"stärke" und mit unter 30 FPS nen Shooter dahinruckeln zu lassen sollte sich keiner geben. Und AA ganz abzuschalten da bekommt man ja Augenkrebs...du kannst ja bei der X1600Pro/XT die Shader-Effekte auf High lassen, jedenfalls hat die X1600 weniger ein Problem damit wie die 6600GT. Die X1600 skaliert bei Shadern fast wie eine 12 Pipe Karte (wenn dabei nix anderes limitiert). Da sieht die 6600GT kein Land.

Aber seien wir doch mal ehrlich, das Teil ist jetzt schon zu schwach um anspruchsvolle Spiele flüssig zu spielen, wie soll das erst in späteren noch hardwarefordernden Spielen werden? Ob das ding (spiel) später nun mit 15FPS vor sich hinruckelt oder dank etwas besserer shaderstärke mit 17FPS macht den Kohl auch nicht fett...Grafik Details werden sich in PC Spielen immer auch nach unten stellen lassen, in zukünftigen Spielen werden aber vermutlich einige Pixelshader Effekte zur "Mindestanforderung" (siehe z.B. BF2) und da ist ShaderPower sicherlich ganz nützlich! :)

man sollte gucken was man jetzt wie damit spielen kann und da sieht es bei der PRO schon recht dürftig aus (ausser man ist sehr anspruchslos)..naja, das ist imho schon fast "anmaßend". ;) Das ein und andere Spiel kann ich soagr auf meinem P4-M Laptop mit Geforce4MX420go noch in 800x600 zocken und das würde ich dann schon fast als "anschpruchslos" bezeichnen. Allerdings liegen zwischen X1600 und GF4MX Welten wenn nich sogar "Galaxen". *g*

..ich will die X1600 hier nich in den Himmel loben, aber die Karte macht für 4 Pipes eine sehr gute Figur zu einem anständigen Preiß! Wenn die (nähere) Zukunft so aussieht wie es uns der 3DMark05 (und vermutlich auch der 3DMark06) weis macht, dann ist die X1600 bestens dafür gerüstet (jedenfalls besser als die 6600). (Ich denke da z.B. an aufwendige Beleuchtungs / Spiegel / Überblend Effekte oder Pixelshader HDR)

Wenn die Zukunft aber nur nach Füllrate und Bandbreite giert, siehts schlecht für die X1600 aus. Allerdings vermute ich eher, dass es Richtung ALU Power geht (jedenfals is das der Trend in den letzten Monaten). =)

Edit: bzgl AOE III ..ich tippe mal auf einen Treiber Bug, die ATI Karten schneiden Generell etwas schlecht ggü NV ab (es sei denn AOE verbrät unmengen an Füllrate). Gleiches gilt wohl auch für COD2, ich denke der nächste oder übernächste ATI Treiber wird das fixen. FarCry, FEAR, SS2, 3DMURKS gelten als recht Shaderlastig und hier kann die X1600 durchaus "punkten". :)

cu
BUG

Odal
2006-01-07, 01:16:23
3DMurks war schon immer und wird auch immer "für den popo" sein

wenn du 3DMurks spielst bitte, ich spiele andere Spiele ;)

und da ist eindeutig das die pro auf 1024x168 mit SM2 mit ca. 16FPS und bei SM3 mit ca. 13FPS bei AOEIII abkackt.

und du glaubst doch nicht im ernst das treiberoptimierungen 50% Rückstand aufholen könnten.

Sobald es mal schlecht aussieht wirds auf einen Treiberbug geschoben, so ein schwachsinn.

so ich hab mir mal den spass gemacht und die PRO eingezeichnet 1 Frame kannste dir noch dazu denken

http://img459.imageshack.us/img459/5093/1600pro9op.jpg

;D

BUG
2006-01-07, 01:28:22
und da ist eindeutig das die pro auf 1024x168 mit SM2 mit ca. 16FPS und bei SM3 mit ca. 13FPS abkackt...siehe Edit^^, ich vermute bei ATI einen Treiber Bug.


..bzgl. 3DMurks, ich wuste das so eine Antwort kommt. ;) Aber meinetwegen, nur komisch das der 03er und 05er die PixelSahder schwäche der FX Serie mehr als eindeutig unter beweis gestellt hat und die FX Serie in aktuellen Spielen wie eine DX8 Karte behandelt wird. ;) Damals war der Aufschrei groß und nVidia hat die Freundschaft mit FM gekündigt, letztendlich hatte der 3DMurks aber damals schon "recht" bzw zeigte was uns letztes und dieses Jahr so erwartet. ;)

cu
BUG

Odal
2006-01-07, 01:30:25
willst du sagen das die GF 6 serie eine pixelshaderschwäche hat? ;D

achso im 3DMark2005 erziehlt eine X1600XT mehr punkte als eine 6800GT

du willst doch nicht ernsthaft behaupten das man daraus schlüsse ziehen kann? dann spiel mal mit einer x1600XT und einer 6800GT und vergleiche mal ;D

BUG
2006-01-07, 01:35:57
..nein! ..aber ich sage das der RV530 (deutlich) mehr Pixelshader Power als NV43 hat. ;D

cu
BUG

Odal
2006-01-07, 01:48:14
joa was bringts? wir drehen uns im kreis....du siehst wie er abkackt da hilft auch pixelshaderpower nix (ich mein 12 pixelprozessoren ist auch nich so doll und dann noch bei der lahmen PRO statt XT)

für zukünftige spiele ist das ding eh zu lahm (ausser man stellt details und somit auch shader etc. runter)

vergleichen kann man nur spiele die es jetzt gibt und da kackt das ding nunmal ab

wer viel leistung haben will muss eben mehr investieren der wird mit karten ala 6600GT oder x1600pro/xt eben nicht glücklich werden (auf zukunft gesehen).

wer das nicht will kann zukünftige spiele knicken...und mit nur 4tmu (auf dem stand waren wir im midrange vor 4 jahren mal) und 4 ROP muss er sich eben mit älteren sachen begnügen oder eben alles soweit runterstellen das es aussieht wie half-life 1 ;D
du glaubst doch nicht im ernst das der Bedarf an TMU- und ROP-Leistung sinken wird? er wird vielleicht nicht so stark steigen wie der bedarf an pixelprozessorleistung
und die x1600PRO pfeift ja jetzt schon aus dem letzten loch, wie soll das erst in zukunft werden ;D

für nix gibts eben nix das ist auch bei hardware so
da kann man nur versuchen für minimales geld das maximale zu bekommen, und das ist bestimmt keine x1600PRO

BUG
2006-01-07, 02:07:15
..wer hätte denn als die FX5800 erschienen is gedacht, dass es zwei Jahre später so schlimm mit der Pixelshader Leistung aussieht (bzw sich die Spiele in diese Richtung entwickelt haben)? Richtig, --> keiner! ..bzw keiner wollte es war haben! Und jetzt werde ich mal reichlich OT und schaue in meine Glaskugel!

FM Releast den 3DMurks06, in ihm wird es erstmals extrem lange Shader geben wo die Pixelshader von Dynamisch Branching gebrauch machen müssen (da das wohl die Zukunft laut FM Glaskugel werden wird). Die X1600XT erreicht dabei die Leistung eines 6800GT SLI gespanns da die nVidia Karten mit Dynamischen Branches so ihre Probleme haben.

Der Aufschrei der Comunity is groß, ATI erneut "bevorteilt", man munkelt ATI hat FM mal wieder "bezahlt". Ende 2006 kommt das erste Spiel welches genau sowas einsetzt, der NV4x/G70 wird zur unteren DX9 Klasse degradiert und muß aus Geschwindigkeitsgründen auf die Shadereinstellung HIGH verzichten, mitte 2007 erschienen weitere Spiel da der G80 und R5xx keine Problem damit hat!

Dumme Gedanken/Hirngespinste eines FanATIkers, oder der Alptraum eines nVidianers? oder kompletter BS?! ;D

cu
BUG

Odal
2006-01-07, 02:14:59
ich glaube alles dreis trifft zu ;D

bzgl. der FX5800

du willst das verhältniss FX5800/R9700 doch wohl nicht im ernst mit dem Verhältniss X1600pro/6600GT vergleichen? ;D

bzt. zeig mir mal ein aktuelles spiel wo eine R9700 noch spielbare frameraten liefert und eine FX5800 nicht ;)

merkst du was?

ausserdem ist das high end, die dinger halten schon etwas länger als midend bzw. bei x1600pro gehobenes lowend

im gegensatz zum highend pfeifen letztere schon fast beim release aus dem letzten loch

ich habe es zwar schonmal gesagt aber ich tus auch gern nochmal

ob da (später) nun was mit 11 FPS oder 13FPS dahinruckelt wayne....das sind keine zumutbaren frameraten also sollte man sich die spielbaren (jetzigen) spiele angucken und da liegt die PRO nunmal DEUTLICH hinter 6600GT zurück


ich kauf mir doch auch kein Trabi mit dem Gedanken:

"naja wenn das Öl knapp wird und der Sprit mal weltweit ausgeht...und ich glück habe das der wind (orkanartig) auf 6 Uhr teht (also Rückenwind) dann biete ich diesem ja edurch meine Kastenform ne schöne angriffsfläche, vielleicht roll ich dann mit gelöster handbremse mit 1 meter pro stunde vorwärs und überhole den so windschnittigen Ferarrie Maranello neben mir"
naja eigentlich is das doch auch doof, da bin ich selbst zu fuss deutlich schneller...und bis ich dann mitm trabi ans ziel ankomm bin ich eh verhungert" ;D

BUG
2006-01-07, 02:33:41
ich glaube alles dreis trifft zu ;D

bzgl. der FX5800

du willst das verhältniss FX5800/R9700 doch wohl nicht im ernst mit dem Verhältniss X1600pro/6600GT vergleichen? ;D..ok, ich gebe zu -> leicht übertrieben! ;D

bzt. zeig mir mal ein aktuelles spiel wo eine R9700 noch spielbare frameraten liefert und eine FX5800 nicht ;)..is FarCry für dich noch aktuell genug? :)

merkst du was?nein! X-D


ausserdem ist das high end, die dinger halten schon etwas länger als midend bzw. bei x1600pro gehobenes lowend..naja, also ich kenne einige die auf ihrer Radeon 9500 Pro oder 9600Pro alles zocken (ich gehöre nich dazu!) ..für solche sicherlich ein lohnendes Upgrad, besonderes wenn das oben^^ zutrifft. ;)


ob da nun was mit 11 FPS oder 13FPS dahinruckelt wayne....das sind keine zumutbaren frameraten also sollte man sich die spielbaren spiele angucken und da liegt die PRO nunmal DEUTLICH hinter 6600GT zurück..es kommt halt drauf an was limitiert. Woher willst du wissen das die X1600Pro/XT in (naher) Zukunft nicht von ihrer Shaderstärke DEUTLICH pofitieren wird/kann? :)

Ok ich weis es auch nich, aber ganz abwägig ist es glaub ich nicht! Und wenn du mir nich glaubts, dann spiel FarCry mal bitte auf einer FX5800U/5900U (Shader auf (Ultra)High, den rest auf Medium) und dann nochmal auf einer Radeon 9500 Pro! ;)

Ok gegen Beispiel wäre Duum3 oder Beben4, lässt sich sicherlich für beide Seiten ein "für" und "wieder" finden. Ich würde sagen wir besprechen das in einem Jahr nochmal, mal sehen wer richtig(er) lag. :D

Edit: ..und nein ich will die Shaderschwäche der FX nich unbedingt auf die Geforce6 übertragen, aber es ist kein Geheimnis das die GF6 angeblich Probleme beim Dynamischen Branching hat. Ich könnte mir aber vorstellen, dass wir in näherer Zukunft sowas sehen werden.

cu
BUG

Odal
2006-01-07, 02:52:46
..ok, ich gebe zu -> leicht übertrieben! ;D

..is FarCry für dich noch aktuell genug? :)


das kann man mit patch auch mit einer 5800 in etwa wie eine 9700 daddeln

das verhältniss 5800/9700 und 6600GT/x1600pro ist nichtmal ansatzweise gegeben wenn dann umgekehrt...die 6600GT ist deutlich schneller als die PRO
es gibt nicht ein Beispiel wo die PRO die 6600GT abzieht aber umgekehrt gibts genügend

bei der 5800 war gleich zu beginn bekannt das das ding so seine macken im design hat...das GF 6 design ist aber tadellos


..naja, also ich kenne einige die auf ihrer Radeon 9500 Pro oder 9600Pro alles zocken (ich gehöre nich dazu!) ..für solche sicherlich ein lohnendes Upgrad, besonderes wenn das oben^^ zutrifft. ;)


das stimmt aber mit der 6600GT haben sie noch deutlich mehr FPS ^^


..es kommt halt drauf an was limitiert. Woher willst du wissen das die X1600Pro/XT in (naher) Zukunft nicht von ihrer Shaderstärke DEUTLICH pofitieren wird/kann? :)


weil die jetzt schon bei den games abkackt wegen ihrer speicherbandbreitenlimitierung (die ist sehr bandbreitenhungrig und bandbreite wird immer mehr limitieren) den nur 4TMUs und 4ROPs
wie schon erwähnt die nachfrage nach rohpower wird sicher nicht sinken und da mangelts jetzt schon dran


Edit: ..und nein ich will die Shaderschwäche der FX nich unbedingt auf die Geforce6 übertragen, aber es ist kein Geheimnis das die GF6 angeblich Probleme beim Dynamischen Branching hat. Ich könnte mir aber vorstellen, dass wir in näherer Zukunft sowas sehen werden.


jo und die ATIs haben dafür irgend ne andere schwäche (Quasar wo bist du *G*)
ich hab mir trotzdem eine gekauft da ich jetzige games damit sehr gut daddeln kann...also wayne

und siehe oben...zeig mir nur EIN beispiel wo eine 6600GT probleme mit einer x1600pro hat. richtig du wirst keins finden...das sind alles nur haltlose spekulationen deinerseits



so gn8 :D

BUG
2006-01-07, 03:02:01
das kann man mit patch auch mit einer 5800 in etwa wie eine 9700 daddeln..nein, geht nicht. ..jedenfals nich bei gleicher Bildqualität. :( ..las mal Cooler01 oder so durchlaufen. :frown:

weil die jetzt schon bei den games abkackt wegen ihrer speicherbandbreitenlimitierung (die ist sehr bandbreitenhungrig und bandbreite wird immer mehr limitieren) den nur 4TMUs und 4ROPs
wie schon erwähnt die nachfrage nach rohpower wird sicher nicht sinken und da mangelts jetzt schon dran..das wird sich imho noch zeigen müssen, sicherlich wird das ein oder andere Spiel mal zum Füllraten oder Bandbreiten Problem werden, das gleich kann der 6600GT aber beim Shaderpower auch passieren.

ich hab mir trotzdem eine gekauft da ich jetzige games damit sehr gut daddeln kann...also wayne..genau WAYNE! ;D

so gn8 :Ddito! :)

cu
BUG

fin_dd
2006-01-07, 15:51:31
nun gut...die x1600pro ist also zu langsam. vor allem im Vergleich mit einer 6600GT. Da dieser aber etwas langsamer bis gleichschnell mit der x800 ist, werde ich dann diese nehmen...alleine wegen des breiter angebundenen Speicherinterfaces.

habt dank und jetzt streitet euch in aller Ruhe weiter :)

dargo
2006-01-07, 15:59:35
Da dieser aber etwas langsamer bis gleichschnell mit der x800 ist, werde ich dann diese nehmen...alleine wegen des breiter angebundenen Speicherinterfaces.

Die X800 ist auf jeden Fall schneller wie die G6600GT. Für diesen Preis ist sie :up:.

Odal
2006-01-07, 16:51:11
nun gut...die x1600pro ist also zu langsam. vor allem im Vergleich mit einer 6600GT. Da dieser aber etwas langsamer bis gleichschnell mit der x800 ist, werde ich dann diese nehmen...alleine wegen des breiter angebundenen Speicherinterfaces.

habt dank und jetzt streitet euch in aller Ruhe weiter :)


auf jeden fall eine bessere wahl wie eine x1600pro denn das wär die schlechteste wahl ;)

StefanV
2006-01-07, 17:02:14
auf jeden fall eine bessere wahl wie eine x1600pro denn das wär die schlechteste wahl ;)
Dann schau dir mal aths Kommentare zu WoW an :rolleyes:

Odal
2006-01-07, 17:08:04
das aths die AF unterschiede schon immer mit der lupe sucht ist uns bekannt, und wurde auch von dir zu seeligen NV30 zeiten als unnütz hingestellt und das AF des R300 (welches ja deutlich schlechter ist) als das ultimum hiongestellt.

ein bisschen mehr gradlinigkeit und konsequenz könnte dir nicht schaden

ps: ich finde winkelunabhängiges AF auch sehr gut aber dann bitte auf einer anständigen Karte wie x1800XL oder respektive X1800XT und nicht auf solcher Gurke die in der Wurzel nix taugt