PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : @Razor - FX 5200


Mad-Marty
2003-05-05, 18:55:36
Hi Razor,

was konnte ausgerechnet DICH, zu diesem
lahmen Teil bewegen ?? Das ding ist doch noch bedeutend langsamer
als eine GF4 Ti4200.


Das will ich jetzt mal wirklich wissen .... oder war das ein Testkauf ? Oder einfach weil sie so billig ist und die die Techdemos sehen wolltest ?

Gohan
2003-05-05, 19:05:09
Ich kann das auch nicht verstehen... der muss ja genau so blöd sein wie ich mit meiner FX5600 Ultra! ;D

Demirug
2003-05-05, 19:07:12
Originally posted by Gohan
Ich kann das auch nicht verstehen... der muss ja genau so blöd sein wie ich mit meiner FX5600 Ultra! ;D

mhm Ausflug in die Matroxwelt beendet?

LovesuckZ
2003-05-05, 19:25:12
Wer kauft schon gern alte Technik vom Stand von vor 2 Jahren.

Gohan
2003-05-05, 19:36:43
Originally posted by Demirug
mhm Ausflug in die Matroxwelt beendet?

Was heißt beendet?^^ Die Parhelia war eine Grafikkarte die ich mal endlich wieder länger als 2 Monate behalten habe. Zumal hab ich noch genug Matrox Karten im einsatz ;) Ausserdem brauche ich die FX5600 U für Seijin.de. Die Parhelia bietet keine so tollen Vergleicheswerte.

LovesuckZ
2003-05-05, 19:39:36
Originally posted by Gohan
Ausserdem brauche ich die FX5600 U für Seijin.de. Die Parhelia bietet keine so tollen Vergleicheswerte.

Die 5600U aber auch net *eg*

Gohan
2003-05-05, 20:19:38
Originally posted by LovesuckZ
Die 5600U aber auch net *eg*

Doch, die kann wenigstens mehrere AF und AA Modi ;)

StefanV
2003-05-05, 20:30:48
Originally posted by Gohan
Doch, die kann wenigstens mehrere AF und AA Modi ;)

Konnte das deine 9500 PRO und meine ehemalige ELSA GF3 TI200 nicht auch ?? :|

Mad-Marty
2003-05-05, 20:33:24
schon interessant wieviele Razor heissen ;)

Ihr könnt schon was zum thema fragen, aber bitte keinen Flamethreat !
Danke.


Razor, nun melde dich doch mal, das ist doch keine Karte die zu dir passt, von dir hatte ich schon 9800 pro oder 5800 /U erwartet :-D

Gohan
2003-05-05, 20:34:26
Originally posted by Stefan Payne
Konnte das deine 9500 PRO und meine ehemalige ELSA GF3 TI200 nicht auch ?? :|

Jo, aber die Ti200 ist ja wohl nimma konkurenz fähig.

Raff
2003-05-05, 20:42:49
Originally posted by Gohan


Jo, aber die Ti200 ist ja wohl nimma konkurenz fähig.

Doch, "etwas" OC'ing und das Teil kann mit ner Ti4200 mithalten ;)

MfG
Raff

LovesuckZ
2003-05-05, 21:18:38
Originally posted by Mad-Marty
Razor, nun melde dich doch mal, das ist doch keine Karte die zu dir passt, von dir hatte ich schon 9800 pro oder 5800 /U erwartet :-D

Warum sollte er sich bei so einem Thema melden? Vorallem wenn es so anfaengt:
was konnte ausgerechnet DICH, zu diesem
lahmen Teil bewegen ?? Das ding ist doch noch bedeutend langsamer
als eine GF4 Ti4200.

Mad-Marty
2003-05-05, 21:28:04
Warum denn nicht ?!

Ist doch was wahres dran das das ding langsamer als 4200 ist ....

Mich interessierts halt mal, vielleicht weiss er ja was wie das die dinger die welt erobern ;-) ... keine Ahnung, deswegen will ich das ja wissen.

Und irgendwo hat er ja mal gesagt er kauft sich immer für viel geld die 1. generation als highend. (GF256, GF3)

LovesuckZ
2003-05-05, 21:32:35
Originally posted by Mad-Marty
Und irgendwo hat er ja mal gesagt er kauft sich immer für viel geld die 1. generation als highend. (GF256, GF3)

Bei Nvidia ist es jedoch das erste mal, dass man fuer unter 100€ das "High - End" der oberen Klassen bekommt. Ausserdem schreibe ihn doch einfach ne PM. Da wird er wahrscheinlich schneller anworten.

Lotus
2003-05-06, 03:55:26
Originally posted by Raff


Doch, "etwas" OC'ing und das Teil kann mit ner Ti4200 mithalten ;)

MfG
Raff

aber net wenn ich mit der Ti4200 "etwas" OC´ing betreibe ;)

ne Ti200 auf 320/640 hab ich noch net gesehen...

Quasar
2003-05-06, 11:28:05
Originally posted by Mad-Marty
Hi Razor,

was konnte ausgerechnet DICH, zu diesem
lahmen Teil bewegen ?? Das ding ist doch noch bedeutend langsamer
als eine GF4 Ti4200.


Das will ich jetzt mal wirklich wissen .... oder war das ein Testkauf ? Oder einfach weil sie so billig ist und die die Techdemos sehen wolltest ?

Ich bin schuld....

Nedo
2003-05-06, 12:28:50
Originally posted by Quasar


Ich bin schuld....
warum?

Razor
2003-05-06, 22:42:30
Originally posted by LovesuckZ
Wer kauft schon gern alte Technik vom Stand von vor 2 Jahren.
Exakt !

Und klar, das war ein Testkauf...
Vielleicht könnt Ihr ja die Frage beantworten, die mich bewegten:
(kein Anspruch auf Vollständigkeit)

"Lohnt sich die neue Technologie von nVidia ?"
(die von ATI habe ich ja schon ausgiebig 'getestet' ;-)

"Wie fühlt sich nView an ?"
(nicht nur zu testzwecken, sondern im täglichen Umgang mit dem Compi - mit 'ner gf3 war da nix zu machen)

"Ist die Signalqualität nun besser oder schlechter geworden ?"
(im Vergleich zu meiner sehr guten ELSA gf3, aber auch im Vergleich zur ATI R9500)

"Wie sieht die neue TV-Out-Lösung von nVidia aus ?"
(man hörte da ja so einige unschöne Dinge... vor allem im gf4ti-Bereich)

"Läßt sich eine gffx tatsächlich passiv kühlen und ohne externe Stromversogung betreiben ?"
(konnte ich mir eigentlich nicht vorstellen und auch jetzt traue ich der Sache nicht ;-)

"Wie gut wird sie bereits von den derzeit verfügbaren offiziellen Treibern unterstützt ?"
(auch da hörte man so einiges... vor allem sehr wiedersprückliches)

und zu guter letzt:

"Ist sie wirklich so schlecht, wie ihr nachgesagt wird ?"

-

Diese Fragen zu klären, war mir durchaus 100€ wert... und wenn ich das Interesse an der kleinen verliere (was nach Erscheinen des NV35 durchaus sein könnte ;-), dann habe ich immer noch eine gute Office-/Multimedia-Karte, die sicher nicht so schnell an Brauchbarkeit verliert und im angedachten WoZi-PC zum Einsatz kommen könnte (so hoffte ich zumindest, was sich nun auch bewahrheiten zu scheint).

Alle Fragen konnte ich noch nicht allumfassend für mich beantworten, bin aber noch dabei (wenn ich nur nicht so wenig Zeit hätte...). Und was ich bisher gesehen habe, hat mich durchaus überascht (so einiges war in Bruchstücken ja schon davon zu hören).

Werde also in nächster Zeit mal einen 'kleinen' Efahrungsbericht verfassen, der versuchen wird, die oben genannten Fragen zu beantworten... von jemanden, der sie in der Praxis testet und nicht nur durch einen festgeschriebenen Test-Parcour jagt, um dann ein (meist kommerzielles) Review zu verfassen...

Bis denne

Razor

P.S.: Bis jetzt habe ich keinen müden Cent der guten 100€ bereut... ;)

Razor
2003-05-06, 22:54:22
Originally posted by Mad-Marty

Razor, nun melde dich doch mal, das ist doch keine Karte die zu dir passt, von dir hatte ich schon 9800 pro oder 5800 /U erwartet :-D
Sorry, Marty...

Habe wirklich viel in letzter Zeit zu tun (gestern habe ich garde mal einen Reply geschafft... und lesen konnte ich schon gar nicht viel (nur Posts des einen Threads, den ich erwischte... heute wird es auch nicht sehr viel anders sein :-().

Hoffe, dass mein Kommentar an Love Deinen Wissensdurst erst einmal stillt. Im Prinzip habe ich nocht immer eine gf3, nur mit verbesserter AF/AA-Leistung, Multimonitor-Unterstützung und perfektem TV-Out (ich kanns gar nicht oft genug sagen !). Zudem war sie auch passiv gekühlt (und wir es auch irgendwann wieder sein ;-) und bietet neueste Technologie zu einem Preis, der einfach unschlagbar ist.

Mögen hier noch so viele Unkenrufe kommen, aber ich mag das Teil !
Und ja, ich habe Lust auf mehr bekommen. Sollte der NV35 also nur halbwegs die leistung bringen, die ihm nachgesagt wird, werde ich erbarmungslos zuschalgen... ganz egal, was das Teil kostet. Merkwürdiger weise hat mich die R9800pro nun überhaupt nicht gereitzt... versuche noch immer zu ergründen, woran das liegen mag.

Also, bis denne erst mal und drückt mir mal die Daumen, dass ich , Zeittechnisch gesehen, demnächst mal wieder ein bissel Luft bekomme...

Razor

Razor
2003-05-06, 23:03:42
Originally posted by Mad-Marty

Und irgendwo hat er ja mal gesagt er kauft sich immer für viel geld die 1. generation als highend. (GF256, GF3)
Bei dem NV30 hat's mir glatt die Lust versaut, dies so zu machen...
Die Lautstärke der Turbine ist für mich absolut inakzeptabel !

Das lauteste in meinem System sind die Festplatten (sind sehr leise IBM 120'er), insofern kann man sich vielleicht vorstellen, wie ich das mit dem Fön gefunden habe... vor allem, nachdem ich diesen Live auf der CeBit in Aktion erleben durfte.

Aber auch bei der gf256 habe ich nicht gleich zum ersten Modell gegriffen. Schließlich gab's ja vor meiner gfddr (auch von ELSA ;-) ja noch die gfsdr. Und dazu brauche ich ja wohl nicht mehr allzuviel zu sagen...

So vermute ich, dass es auch diesmal sein wird. NV30=gfsdr (Fehlstart) und NV35=gfddr (das 'richtige' Produkt einer absolut neuen Generation). Wie gesagt, ich vermute das. Und auch bei Ersheinen des NV35 werde ich wieder die Review/Preview-Phase abwarten... vor allem aber die 'echten' Praxiserfahrungen werde ich abwarten. Also ca. einen Monat nach Regal-Release (oder früher, wenn... ;-).

Schaun' wir mal

Razor

Razor
2003-05-06, 23:07:35
Originally posted by Quasar

Ich bin schuld....
Sagen wir: Du hast mit der Beantwortung nur einer einzigen Frage meinerseits meine bis dato vorherrschende 50:50 (exakt !) Meinung in die eine Richtung verändert. Halten konnte mich dann nichts mehr...
;)

Thx nochmal !

Razor

Mad-Marty
2003-05-07, 20:26:06
Hi Razor,

ok, finde ich ja erstmal supi das du noch geantwortet hast.

Ich hab aber noch eine Frage:

Stimmt es, das das kärtchen, wie in allen Tests beschrieben für 2x/2x total unbrauchbar ist und ohne AA/AF sogar wesentlich langsamer als eine Ti4200 ?


Ehrlich gesagt habe ich nämlich auch schonmal überlegt mir das ding mal zum testen vorzunehmen.

Also gib mir mal bitte ein paar angaben zu Spielen - möglich aktuelle und sehr verschiedene. Danke.

Aqualon
2003-05-07, 21:17:12
Ich kann zwar mit keinen direkten Benchmarks dienen, aber nen kurzen Erfahrungsbericht posten.

In der Firma haben wir seit vorgestern nen neuen Rechner bekommen http://www.arlt.com/shop/warenkorb.php?subm=get_it&wg=300&wgname=komplett&searchword=&artnr=3090003 mit AMD Barton 2500+, Asrock Board mit SIS 746FX, 512MB DDR, Leadtek WinFast A 340 TDH (mit FX5200), Win XP Pro, usw...(120GB Platte, 16xDVD, 48xCDR)

Da der Rechner nur zum Arbeiten mit 2 Bildschirmen verwendet wird, hab ich ihn nicht großartig auf Spieleperformance optimiert, sondern nur die beigefügten Leadtek-Treiber installiert. Also alles Standardeinstellungen.

Hab dann probeweise das beiliegende Spiel Gun Metal installiert und gestartet. Dort ist default-Einstellung 1024*768 und 4*AA.

So, nach Starten des Spiels erstmal die Grafik angeguckt. Sah schon ziemlich gut aus, 4*AA war also mit Sicherheit an.

Dann hab ich mich mal ein bisschen bewegt, bzw. wollte es ;)

kurzes Zwischen-Fazit: total zähe Bewegungen und ein normales Spielen war in default nicht möglich.

Hab dann 4*AA rausgenommen und das Spiel wurde um einiges flüssiger und war im Solomodus ziemlich gut spielbar. Mehr konnte ich dann nicht testen, aber der Rechner ist ja auch nicht zum Spielen da *g*

Die Bildqualität ist jedenfalls sehr gut und im Vergleich zu einer Matrox G550 DH, an der die Monitore vorher gehangen sind, total vergleichbar. Dort also ne gute Note für die Karte.

Nach dem kurzen Test muss ich sagen, in dem Rechner reicht die Karte locker für ein Spielchen, wenn man nicht auf höchste Qualität achtet. Mit ein wenig Optimierungen wär bestimmt noch mehr rauszuholen.

Fazit: Wer ne Karte zum entspannten Arbeiten mit guter Signalqualität sucht, die auch für ein Spielchen abundzu völlig ausreicht, ist mit der Leadtek A340 TDH gut beraten. Ich war auf jedenfall erstaunt, was man heutzutage für 799 Euro an Performance bekommt.

Aqua

betasilie
2003-05-07, 21:51:23
Wer hin und wieder ein Spielchen spielt sollte wohl doch besser zur GF4ti4200 oder zur ATI9500/pro greifen. ;)

Aqualon
2003-05-07, 22:09:40
Die TI 4200 und die R9500/pro sind zwar bestimmt besser zum Spielen geeignet und ich würd auch keinem ne FX5200 zum Spielen empfehlen.

Aber für denjenigen, der mehrere Stunden am Tag hauptsächlich zum Arbeiten vorm PC sitzt, deswegen ne gute Bildqualität benötigt und nur abundzu ein Spielchen macht ist die FX5200 keine schlechte Wahl.

Vorallem kostet sie in der gleichen Ausstattung ca. 40 bzw. 80 Euro weniger als die von dir genannten.

Razor
2003-05-07, 22:15:43
Originally posted by betareverse
Wer hin und wieder ein Spielchen spielt sollte wohl doch besser zur GF4ti4200 oder zur ATI9500/pro greifen. ;)
Na klasse... veraltete Technologie oder aber doppelt soviele Moneten.
Sehr guter Vorschlag, beta !

Weiter so, wieder mal vollständig am Thema vorbei...
:D

Razor

Razor
2003-05-07, 22:18:51
@Aqualon

Kann Deine Erfahrungen im Prinzip bestätigen...
Allerdings sollte man auch sagen, dass das Kärtchen für mehr als 2xAA einfach keine Power besitzt.
Zumal 4xOGMS kaum einen visuellen Vorteil gegenüber 2xRGMS bietet.
;-)

Razor

Razor
2003-05-07, 22:26:45
Originally posted by Mad-Marty

Stimmt es, das das kärtchen, wie in allen Tests beschrieben für 2x/2x total unbrauchbar ist und ohne AA/AF sogar wesentlich langsamer als eine Ti4200 ?
Ja, sie ist langsamer, als 'ne 4200...
Nein, sie ist unter 2x/2x nicht total unbrauchbar...
(ganz im Gegenteil, mit 2xAA/4xAF ist sie überwiegend schneller, als eine gf3ti500)
Originally posted by Mad-Marty

Ehrlich gesagt habe ich nämlich auch schonmal überlegt mir das ding mal zum testen vorzunehmen.
Die knappen 100€ solltest Du dann allerdings übrig haben, denn wenn Du auf Leistung aus bist, wirst Du sicherlich nicht das finden, was Du erwartest. Bist Du aber an sehr guter Signalqualität interessiert (ist u.U. Hersteller-abhängig), gute Treiberunterstützung zu schätzen weißt und einen Spieltrieb Dein eigen nennst, der weit über das Zählen von Benchmarkpunkten hinaus geht, dann ist die Karte vielleicht was für Dich.
Originally posted by Mad-Marty

Also gib mir mal bitte ein paar angaben zu Spielen - möglich aktuelle und sehr verschiedene. Danke.
Oh, ich habe da so einiges... (lange nicht nur Spiele und schon gar kein SPECview ;-), werde aber einen zusammenhängenden Erfahrungsbericht abgeben, wenn ich a) Zeit und b) meine eigene Betrachtung abgeschlossen habe.

Aber eines ist schon mal sicher... die gf3 bleibt draußen und die 5200 erst einmal da, wo sie ist !
:D

Razor

Aqualon
2003-05-07, 22:27:59
@Razor

Das hab ich auch bemerkt, dass es für 4*AA nicht ganz reicht ;)

Aber für große Tests hatte ich wie gesagt keine Zeit, der Rechner wurde auch für was anderes benötigt.

Hab mir aber dann selbst ne FX5200 besorgt, als Ersatz für meine gute alte GF2MX, die leider signalmäßig nicht mehr ganz auf Höhe der Zeit ist. Und meinen Duron 700 dürfte die Karte bestimmt auch nicht überfordern *gg*

Und bevor jetzt die großen Fragen kommen, ich spiele eh kaum und wenn dann messe ich Spiele nicht am AA/AF-Level und den fps. Ich hab mit dem Duron 700 und der GF2MX Serious Sam in 1024*768 (ohne AA/AF) durchgespielt und es hat riesigen Spaß gemacht, auch ohne Highend-Grafik.

Richthofen
2003-05-07, 22:47:24
ne ausgezeichnete Signalqualität haben die FX Karten vor allem die Kleine jetzt schon von meheren Seiten bestägtigt bekommen. Scheint als hätte sich da etwas getan.

Razor
2003-05-07, 22:50:39
@Aqualon

Und genau das ist es, was die meisten hier offensichtlich nicht begreifen...

Es gibt noch sehr, sehr viele Leutz da draußen, die noch Kärtchen aus der gf2mx-Klasse (oder schlimmeren ;-) besitzen und auch mal ganz gerne was neues hätten. Sollte nicht teuer sein, aber trotzdem eine gute bis sehr gute Qualität liefern, ausreichend schnell sein (diesen Begriff dürftest Du wirklich gut dargelegt haben !) und wenn sie dann auch noch neueste Technologie zum Schnuppern bietet... umso besser !

Klar, wer nur auf das Zählen von fps aus ist, der sollte von dieser Karte Abstand nehmen, denn der Schwerpunkt ist hier offensichtlich anders gelegt, als z.Bsp. bei der 4200... allerdings dürften solche Leute mit anderen Karten in dieser Preisklasse auch nicht sonderlich glücklich werden... müssten aber im Gegenzug auf eine Menge verzichten.

Bis denne und viel Spaß mit dem neuen Kärtchen !

Razor

Aqualon
2003-05-07, 23:16:42
wahrscheinlich kommen die ganzen Qualitäts- und fps-Fanatiker eh nicht mehr zum Spielen, oder haben schon längst vergessen, wie früher die Spiele ausgesehen haben.

Vll. läuft Unreal 2 nur in 800*600 mit wenigen Details, aber ist von der grafischen Qualität immer noch besser als alle Spiele aus der Prä-3D-Grafikkarten-Ära.

Weiß noch jemand wie Duke3D ausgesehen hat? Natürlich sieht das heute ziemlich schlecht aus, aber es wurde trotzdem monatelang mit Begeisterung gespielt, auch ohne Polygone, AA, AF und was weiß ich.

Gute Grafik ist eine Sache, aber mit Spielspaß hat die nix zu tun. Ich spiele zum Beispiel Skijumping 3 http://www.nomasi.com/sj3 mit voller Begeisterung, obwohl die Grafik nur knapp über C64-Niveau liegt.

Naja, jedem wie ers am liebsten mag. Ich hab meinen Spaß und der wird bestimmt nicht kleiner, nur weil andere 10mal soviel 3DMarks mit ihrem System schaffen.

Aqualon
2003-05-08, 00:31:36
Hier gibts übrigens ein Review der Leadtek WinFast A340 TDH http://www.penstarsys.com/Reviews/video/leadtek/fx5200/

betasilie
2003-05-08, 00:49:18
Originally posted by Razor

Na klasse... veraltete Technologie oder aber doppelt soviele Moneten.
Sehr guter Vorschlag, beta !

Weiter so, wieder mal vollständig am Thema vorbei...
:D

Razor
Was willst Du Hirni denn von mir? :lol:

1. Eine Ti4200 kostet gerade mal 20€ mehr als die 5200er. ... ca. 100€ für eine 5200 im Vergleich mit einer 4200er für 120€ macht 20€ Differenz! ... Kannst Du mir mal erklären wieso Du von doppelt so viele moneten sprichst!? :bonk: ... Auch wenn Du so von NV überzeugt bist, solltest Du aus Rachegelüsten die ATI-Karten nicht gleich wörtlich in der Pfeife rauchen; die Kunsstoffe scheinen dir nicht gut zu tun. :D

2.Was ist an der Technologie veraltet? Vor ein paar Wochen hast Du noch erzählt, dass man sich ja keine ATI kaufen soll, obwohl sie technologisch führend ist und hier argumentierst Du jetzt andersherum!? ... Die 4200 ist im 3d Bereich völlig up-to-date oder willst Du uns jetzt weiß machen, dass DX9 notwendig ist!? :lol: Die 5200er ist so schlapp, dass sie bei allen aktuellen Spielen langsamer als eine MX440 ist!
Rein von den 2d-Features her mag sie besser sein, aber wer hin und wieder gerne spielt, sollte sich diese Gurke von 3d-Beschleuniger bestimmt nicht zulegen!

3. Am Thema vorbei!? ... Aqualon sprach davon, dass die Karte gut wäre für jemanden, der hin und wieder spielt. Ich schrieb: "Wer hin und wieder ein Spielchen spielt sollte wohl doch besser zur GF4ti4200 oder zur ATI9500/pro greifen." Aha, am Thema vorbei. *rofl*

... Ich würde mal vorschlagen, dass Du besser mal dein Hirn einschaltest, falls vorhanden, bevor Du in deinem NV-Wahn blinde Promotion betreiben willst für die neuen, entäuschenden Karten von NV und die Leute nicht so angreifst, nur weil Du ein Verlierer bist.

MfG Beta

MadManniMan
2003-05-08, 01:10:45
hui, wieder mal zwei gute freunde aufeinandergestoßen, eye? ;)

betasilie
2003-05-08, 01:18:01
Originally posted by MadManniMan
hui, wieder mal zwei gute freunde aufeinandergestoßen, eye? ;)
Ich habe ihn zum fressen gern. :)

Aqualon
2003-05-08, 08:14:23
@beta

Dann will ich mal meine Definition von Hin und Wieder erklären. Ich bin ein Gelegenheitsspieler, der vielleicht auf 3-4 Stunden die Woche kommt, wenn überhaupt (zur Zeit wohl eher 3-4 Stunden im Monat) und dafür geb ich bestimmt keine 200 Euro für ne R9500/pro aus.

Die FX5200 reicht um sich aktuelle DX9-Demos angucken zu können. Die laufen zwar bestimmt nicht flüssig, aber man kann ungefähr erkennen, wie die Grafik in 3-4 Jahren mal aussehen könnte. Dass die FX5200 da bestimmt nicht mehr zum Spielen geeignet ist, ist mir auch klar, aber mit der TI4200 (mangels DX9) und der R9500/pro (mangels dann fehlender Power) wird man da auch nicht besser dastehen.

Für meine Zwecke und meine Ansprüche, die bestimmt nicht die eines Hardcore-Gamers sind, reicht die Karte völlig aus und dafür haben sich die knapp über 100 Euro gelohnt.

Kennung Eins
2003-05-08, 08:28:13
Razor,

sag mal, könntest du mal testen, wieviel Watt die Karte zieht?
Würde mich schon mal interessieren, ob das Teil unter den 12W der GF2MX bleibt ... denn dann würde sich das für meinen Stromsparrechner ja fast schon lohnen ^^

Richthofen
2003-05-08, 10:46:29
"
1. Eine Ti4200 kostet gerade mal 20€ mehr als die 5200er. ... ca. 100€ für eine 5200 im Vergleich mit einer 4200er für 120€ macht 20€ Differenz! ... Kannst Du mir mal erklären wieso Du von doppelt so viele moneten sprichst!? ... Auch wenn Du so von NV überzeugt bist, solltest Du aus Rachegelüsten die ATI-Karten nicht gleich wörtlich in der Pfeife rauchen; die Kunsstoffe scheinen dir nicht gut zu tun.
"

Und da liegt das Problem. Die Ti4200 befindet sich nicht im Sub 100 Dollar Segment. Die 5200 schon. Eine Ti4200 ist für einen Gelegenheitszocker der auch andere Dinge am Rechner macht und nichts ausgeben will Overkill.
Die 5200 dagegen erste Wahl.

In dem Penstarsys hat man die 5200 gegen eine 9000pro verglichen. Die liegen ja etwa im gleichen Preissegment nur bietet die 9000pro eben kein DX9, dass AF ist schlechter und auch das AA ist schlechter und langsamer.
Beides ist zwar bei Karten in dem Segment nun nicht so ausschlaggebend aber es rundet das Gesamtbild ab. Zusätzlich bietet die 5200 wohl eine ausgezeichnete Bildqualität am Signal und taktet sich im 2D Betrieb angenehm runter. Passiv kühlbar ist sie auch.
Genau das Richtige für dieses Marktsegment und für Notebooks.

Und vor allem bringt sie DX9 in die Massen und das kann mir ja nur Recht sein. Wenn Nvidia in den letzten 3 Monaten 1,5 Mio DX9 GPUs verkaufen wollte und davon 85% erreicht hat laut dem Report, wobei der Report serh wage ist. Das sind nur Schätzungen. Nur Nvidia selber kann aufklären wieviel sie verkauft haben.
Mit konservativen 85% wurde gerechnet und der Grossteil dürfte die 5200 sein, dann käme man auf ca 900.000 NV34 Chips.
Das ist in etwa so viel wie ATI an DX9 Chips in 6 Monaten verkauft hat.
Damit sieht man schon die Relationen. Die Entwickler wirds freuen und mich als Gamer auch :)

betasilie
2003-05-08, 12:23:07
Originally posted by Aqualon
@beta

Dann will ich mal meine Definition von Hin und Wieder erklären. Ich bin ein Gelegenheitsspieler, der vielleicht auf 3-4 Stunden die Woche kommt, wenn überhaupt (zur Zeit wohl eher 3-4 Stunden im Monat) und dafür geb ich bestimmt keine 200 Euro für ne R9500/pro aus.

Die FX5200 reicht um sich aktuelle DX9-Demos angucken zu können. Die laufen zwar bestimmt nicht flüssig, aber man kann ungefähr erkennen, wie die Grafik in 3-4 Jahren mal aussehen könnte. Dass die FX5200 da bestimmt nicht mehr zum Spielen geeignet ist, ist mir auch klar, aber mit der TI4200 (mangels DX9) und der R9500/pro (mangels dann fehlender Power) wird man da auch nicht besser dastehen.

Für meine Zwecke und meine Ansprüche, die bestimmt nicht die eines Hardcore-Gamers sind, reicht die Karte völlig aus und dafür haben sich die knapp über 100 Euro gelohnt.
Ok, Du hast deine Priorität gesetzt und bist zufrieden. ... Ich werde bald auch eine 5200er verbauen bei einem Bekannten, dessen kleiner Sohn gelegentlich ein paar Sharewaregames spielt. Auch in diesem Fall sicherlich erste Wahl.

Bekannten, die allerdings aktuelle Games "hin und wieder" zocken wollen, werde ich weiterhin eine 4200er oder 9500er empfehlen; der Unterschied in der Performance ist imho zu groß.

Trotzdem viele Spaß mit der Karte. ;)

betasilie
2003-05-08, 12:26:45
@Richthofen
Die 4200er halte ich für einen Gelegenheitszocker nicht für Overkill, sondern für eine Karte erster Wahl. ... Ansonsten ack. Eine, wenn auch nur statistische, Verbreitung von DX9-Karten ist sicherlich gut für Next-Gen-Games.

StefanV
2003-05-08, 14:22:37
Originally posted by Kennung Eins
Razor,

sag mal, könntest du mal testen, wieviel Watt die Karte zieht?
Würde mich schon mal interessieren, ob das Teil unter den 12W der GF2MX bleibt ... denn dann würde sich das für meinen Stromsparrechner ja fast schon lohnen ^^

Hm, die 9000 NP und die 9600 könnten das eigentlich schaffen, die Rage 128 ist ja deutlich darunter, läuft bei mir sogar ohne Kühlkörper...

Kennung Eins
2003-05-08, 14:59:22
Originally posted by Stefan Payne


Hm, die 9000 NP und die 9600 könnten das eigentlich schaffen, die Rage 128 ist ja deutlich darunter, läuft bei mir sogar ohne Kühlkörper... 1.) Das beantwortet nicht meine Frage.

2.) Meine S3Trio32 wird nichtmal handwarm.

3.) 12W = Spitzenwert

4.) Nenn doch einfach vergleichswerte ohne "könnte das eigentlich schaffen".

Aqualon
2003-05-08, 17:08:32
Wie kann man eigentlich die Leistungsaufnahme einer Graka feststellen? Geht das per Software oder nur mit irgendwelchen Hardwaremessgeräten?

Die Pi*Daumen Messmethode am Kühlkörper bringt ja nicht wirklich was *g*

Quasar
2003-05-08, 17:12:41
Entweder per AGP-Extender oder mit der Differenzmessmethode.

Kennung Eins
2003-05-08, 17:20:00
OT *räusper*Originally posted by Quasar
Differenzmessmethode.Immer wieder gern von mir empfohlen: Klick mir! (http://www.elv.de/Main.asp?Menue=Shop&Artikel=326-54&Gruppe=HT-EM)

Aqualon
2003-05-08, 17:29:41
@Kennung Eins

Wie ich die Leistungsaufnahme eines Komplett-PCs messe ist mir auch klar, aber wie soll mir ein Energiemonitor bei der Messung des Verbrauchs einzelner Bauteile helfen?

Weitere Diskussionen zu dem Thema bitte hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=70010

Unregistered
2003-05-08, 19:44:51
Hi

Hmm ich kann das gejammer nicht ganz nachvollziehen, wenn Razor die Karte um 100€ bekommen hat, welche DX9 supportet ist das doch ok.

Ich habe mich auch bewusst eine 9000er ATi gekauft weil die Karte mir völlig ausreicht, auch ich war positiv überrascht wie gut das Teil eigentlich ging.

Freue mich schon auf Deinen Bericht Razor.

Gruss Labberlipe

Mad-Marty
2003-05-08, 20:11:05
Hmmmm


Nach diesem
http://www.tech-report.com/reviews/2003q2/geforcefx-5600/index.x?pg=1

Test ist mir die lust auf FX 5200&5600 dann doch vergangen, was P/L angeht, ich glaub ich nehm ne 9500 Pro.

Von der 5200 hab ich ja miese Leistung erwartet, aber das die 5600 auch nicht gerade toll ist .... naja

LovesuckZ
2003-05-08, 20:19:45
Tech hat die Karten auf App. gebencht. Empfehlen sollte man da eher das Computerbase Review der 5600 und den test auf Xbitlabs.com Den ersten weil App und Balanced gebencht wurde, der 2. weil er allgemein gut ist.

Roadkill
2003-05-08, 21:34:51
ROFL. eine 5200er zum zocken!? Nichmal für Tomb Raider!

Mag sein das sie eine 1A BQ hat, aber wer auch nur eine zehntel Sekunde im Jahr zockt sollte doch lieber zur Geforce 4 ti 4200 greifen.

Und von wegen DX9 GraKa, das ist doch nur Papierkram! Die Karte schafft ja nichtmal dx8 Titel in vernünftiger Geschwindigkeit zu berechnen, was soll denn erst passieren wenn "echte" dx9 Titel kommen?!

Also bitte, lasst euch nicht von der Namensgebung Geforce FX blenden!
Tut mir leid Razor, aber irgendwie bist du in meinen Augen nicht der kompetente GraKa "Empfehlungs Spezialist".

Gruss
Roadkill

Aqualon
2003-05-08, 21:48:37
Warum sehen denn manche Leute nicht ein, dass man ne Graka auch für andere Sachen als Spiele verwenden kann?

Und selbst wenn man abundzu spielt, es gibt auch viele Spiele ohne Highend-3D-Grafik, die min. 60fps brauchen um ordentlich gespielt werden zu können.

Ausserdem müssen es ja nicht immer nur die neuesten Spiele sein, auch Budgettitel machen Spaß und fordern kein so starkes System.

Mad-Marty@work
2003-05-09, 16:09:35
Originally posted by LovesuckZ
Tech hat die Karten auf App. gebencht. Empfehlen sollte man da eher das Computerbase Review der 5600 und den test auf Xbitlabs.com Den ersten weil App und Balanced gebencht wurde, der 2. weil er allgemein gut ist.

Ja ok, sie haben auf Application gebencht, aber sollte
die Karte nicht trotzdem schneller sein als die ti4200 ?
Die nutzt ja auch reines AF !!!
Insofern sehe ich da schon einen rückschritt.
Und man bedenke, es gibt nicht nur die Radeons, die Karte kriegt von
einer 4200 schon die hucke voll, von ti4600 und R9500 Pro will ich gar nicht erst reden.

nVidias Huan Chi dingsda hat schon recht wenn er von "nicht erfolgreicher FX performance spricht"


Sei es wie es sei, die DX9 kompatibilität ist mir zwar nicht völlig unwichtig, wenn damit aber ein gravierender schritt rückwärts im speed getan wird ist es die dx9 kompatibilität mir nicht wert.

Razor
2003-05-10, 06:49:06
Originally posted by MadManniMan
hui, wieder mal zwei gute freunde aufeinandergestoßen, eye? ;)
Na ja, beta plustert sich halt gerne auf, ohne was wirklich sinnvolles zum Thema beizutragen...
Wenn er hier wieder mal rumtrollen will, dann laß ich ihn.
(habe ja auch keine Wahl ;-)

Er sollte dann allerdings nicht erwarten, von mir eine Antwort zu erhalten !

Bis denne

Razor

Razor
2003-05-10, 06:53:07
Originally posted by Kennung Eins
Razor,

sag mal, könntest du mal testen, wieviel Watt die Karte zieht?
Würde mich schon mal interessieren, ob das Teil unter den 12W der GF2MX bleibt ... denn dann würde sich das für meinen Stromsparrechner ja fast schon lohnen ^^
Sag mir, wie ich das machen kann und ich werde es tun !

Kann nur sagen, dass das Teil auch anstandslos auf 'nem i440BX mit 250W NoName-Netzteil absolut stabil lief !
(ganz im Gegensatz zu der R9500, die erst mit 420W Marken-NT und keinesfalls auf einem BX zum Laufen zu bringen war ;-)

Wie gesagt, habe alles hier, müsste nur wissen, wo ich das Digi-Meter ansetzen soll !
;-)

Bis denne

Razor

Razor
2003-05-10, 06:57:00
Originally posted by Unregistered
Hi

Hmm ich kann das gejammer nicht ganz nachvollziehen, wenn Razor die Karte um 100€ bekommen hat, welche DX9 supportet ist das doch ok.

Ich habe mich auch bewusst eine 9000er ATi gekauft weil die Karte mir völlig ausreicht, auch ich war positiv überrascht wie gut das Teil eigentlich ging.

Freue mich schon auf Deinen Bericht Razor.

Gruss Labberlipe
Wird' dieses Wochenende kommen, wenn ich das irgendwie hinbekomme !
;-)

Razor

Razor
2003-05-10, 06:59:54
Originally posted by Roadkill
ROFL. eine 5200er zum zocken!? Nichmal für Tomb Raider!

Mag sein das sie eine 1A BQ hat, aber wer auch nur eine zehntel Sekunde im Jahr zockt sollte doch lieber zur Geforce 4 ti 4200 greifen.
Sprichst Du aus eigener Erfahrung, oder ist dies eher ein "Pups im Sturm" ?
;-)

Also TombRaider kann ich bis zur 5. Generation wunderbar in 4xS und 8xAF zocken.
Das aber liegt eher an den Game-Engines selber, da diese ausgesprochen anspruchslos sind...
(ist wohl sowieso nur eine, nur jedes mal 'etwas' modifiziert ;-)

Auf Dein restliches refasel geh' ich lieber nicht ein.

Razor

Roadkill
2003-05-10, 18:30:48
Originally posted by Razor


Auf Dein restliches refasel geh' ich lieber nicht ein.

Razor

Jo weil du es nicht wiederlegen kannst, danke. :p

Razor
2003-05-10, 18:56:08
Originally posted by Roadkill

Jo weil du es nicht wiederlegen kannst, danke. :p
Da Du nur Behauptungen aufgestellt hast, ohne diese zu belegen und der letzte Satz doch wohl nur ein schlechter Witz gewesen sein kann, wüsste ich nicht, was ich daran 'wiederlegen' sollte...
:D

Razor

LovesuckZ
2003-05-10, 19:02:19
Razor, da das ja hier deine Thread ist, hab ich mal eine frage bezueglich der Qualitaet unter App. und Balanced/Quality:
Wie groß sind denn die Unterschiede, oder gibt es überhaupt keine?

Razor
2003-05-10, 19:30:14
Originally posted by LovesuckZ
Razor, da das ja hier deine Thread ist, hab ich mal eine frage bezueglich der Qualitaet unter App. und Balanced/Quality:
Wie groß sind denn die Unterschiede, oder gibt es überhaupt keine?
Neee... das ist nicht mein Thread... der wird noch kommen !
:D

Unter OpenGL gibt es die bekannten Unterschiede.... unter D3D habe ich keine wahr nehmen können. Das wurde auch mit den beiden Aniso-Testern bestätigt (OGLAnisoTester 1.2 von Xmas und D3DAnisoTester von Demirug)...

Ich frage mich wirklich, wie nVidia das mit der Performance-Steigerung unter D3D hinbekommen hat.

Bis denne

Razor

LovesuckZ
2003-05-10, 19:33:31
Sehen die Unterschiede deutlich aus, wenn man kein AF verwendet?

Razor
2003-05-10, 19:46:02
Originally posted by LovesuckZ
Sehen die Unterschiede deutlich aus, wenn man kein AF verwendet?
Unter OGL ja, unter D3D nein.
Wieso ?
???

Du weißt ja, dass unter OGL offensichtlich von trilinear auf bilinear umgeschaltet wird und im Performance-Modus vermutlich sogar am LOD herum geschraubt wird. Nur was da unter D3D passieren soll, konnte mir noch niemand ganuer erzählen.

Bis denne

Razor

LovesuckZ
2003-05-10, 19:51:31
Originally posted by Razor
Wieso ?


Weil dies eigentlich unter D3D auch so sein sollte, dass Balanced die Mitte zwischen trilinear und bilinear sei.

Roadkill
2003-05-10, 20:42:05
Originally posted by Razor

der letzte Satz doch wohl nur ein schlechter Witz gewesen sein kann,
Razor

:D

Razor
2003-05-11, 06:38:43
Originally posted by LovesuckZ

Weil dies eigentlich unter D3D auch so sein sollte, dass Balanced die Mitte zwischen trilinear auf bilinear sei.
Mit dem Aniso-Tester ist auf jedenfalls nichts zu erkennen. Unter OGL allerdings sehr deutlich...
Und beim Gamen ist mir ebenfalls nichts in dieser Richtung augefallen.

Habe hier nur einen MiniVergleich dieser Modi mit dem Murks01 GT4 (Nature):

Perf. -> 33,2
Bala. -> 32,3
Qual. -> 16,1

Insofern der Balanced-Mode die Performance glatt verdoppelt, der Performance-Mode dann aber nicht mehr sonderlich viel reißt.

Bis denne

Razor

-X-
2003-05-11, 07:26:00
und wann kommt dein thread:)? find die karte recht interessant als multimedia-graka.

Arcanoxer
2003-05-17, 19:48:55
Originally posted by -X-
und wann kommt dein thread:)? find die karte recht interessant als multimedia-graka.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=70595 ???