PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce FX 5200 ... ein Erfahrungsbericht


Razor
2003-05-11, 12:20:14
So, liebe Leutz, werde jetzt mal versuchen, meine Erfahrungen mit diesem Kärtchen ich einem Post zusammen zu fassen. Das wird sicher nicht ganz einfach werden, da ich mich initial erst einmal auf das Wesentliche konzentrieren sollte. Alles weitere können wir dann ja gerne im Laufe dieses Threads klären.

Erst einmal sei gesagt, dass ich mir eineClub3D FX5200 mit 128MBzugelegt habe, welche sich aber schon beim Sichten Vor-Ort (also beim Händler ;-) alsAlbatron FX5200P mit 128MBentpuppt hat. Auch war ich sehr erstaunt, dass auf dieser Karte 3,6ns Hynix Speicher verbaut wurde, sollte doch nach einem Review auf pcstats (http://www.pcstats.com/articleview.cfm?articleID=1381), welches ich zuvor gelesen habe, 'nur' 4ns Samsung Speicher verbaut sein.

Wie dem auch sei, für interssierte hier der komplette Code der 8 Speicherchips:Hynix 248A
Hy5DV281622DT-36
KoreaBesonders gefallen hat mir die Tatsache, dass diese Karte passiv gekühlt wird und auch sonst recht komplett ausgestattet war, aber auf diesen SchnickSchnack ala (für mich) unnötigen Software Zugaben und sonstigem Zeugs verzichtete.

Für wirklich günstige 102,-€ habe ich dann also folgendes bekommen: - passiv gekühlte GraKa mit Analog- und DVI-Ausgang, nebst TV-Out (S-Video-Buchse)
- DVI-Adapter
- S-Video-to-Chinch-Adapter für den TV-Out mit einem Chinch-Kabel (2m ?)
- dünnes aber sehr ausführliches (engliches) Handbuch (Hard- und Software-Installation)
- ein Blatt mit Installationsanweisungen in Deutsch
- Treiber-/Software-CD
- Software-CD: WinDVD CreatorHier mal ein paar Bildchen von diesem Kärtchen:
(mit Dank von pcstats 'ausgeliehen' ;-)

http://www.pcstats.com/articleimages/200304/albatronfx5200p_front.jpg http://www.pcstats.com/articleimages/200304/albatronfx5200p_pspb.jpg

Bis auf den Speicher entspricht meine Albatron exakt dem hier gezeigten Vorbild.

Zu sagen wäre noch, dass sich die Kabel noch immer in den verschweißten Plastiktütchen finden. Habe einfach die Kabelagen benutzt, die auch schon bei meiner gf3 Verwendung fanden (auch der Vergleichbarkeit wegen ;-) und auf die Treiber-CD habe ich lediglich geschaut, um zu sehen, was denn heutzutage auf einer solchen CD drauf ist: Detonator 42.30 für Win9x/2k/XP vom 22.1.2003
Detonator 43.03 für Win9x/NT4/2k/XP vom 3.3.2003
(die ich beide nicht ausprobiert habe ;-)
WDM-Driver 1.27 vom 10.2.2003 (für die ViVo-Versionen)
eine REG-Datei zum Freischalten der 'CoolBits' (OC-Funktionen)
DirectX 8.1/9.0
Acrobat Reader 5.1Also alles, was man so zum Start mit einer GraKa braucht.
(aber auch nicht mehr ;-)

-

So, nun aber genug geschwafelt !
Ich denke, dass Ihr jetzt eine gute Vorstellung bekommen davon konntet, was man rein physisch für die 100€ bekommt.

Sehr viel wichtiger sind mit allerdings Praxis-Erfahrungen, welche ich nun in Folge angehen möchte...
(wo soll ich bloß anfangen ;-)



Betrieb der Karte

Nachdem ich also abschließende Tests mit meiner gf3 beendet habe, baute ich nun die FX5200 in den Rechner. Zu dem Rechner selbst wäre zu sagen, dass es sich dabei um ein klassisches Chieftec CS601-Gehäuse handelt, welches nicht einmal einen Lüfter in der Seitentür besitzt. Darin befinden sich folgende Komponenten:
proSilencemaxx 420W Netzteil
3 Gehäuse-Lüfter (1x rein, 2x raus, alles 8cm-Papst-1500u/min-Lüfter @ 19dba
ASUS A7N8X del/gd (nForce2) Motherboard
AMD AthlonXP 2100+@2700+ (TBred-B) mit SLK800-Kühler und nauell zu relgelnden 8cm-Papst-Lüfter
2x256MB Corsair PC433 CL2 DDR-SDRAM
2xIBM Festplatten (200GB=80+120) mit 7200u/min und ATA100-Interface
SCSI: DVD-Player und CD-Brenner
AVM-Fritzcard (ISDN-Karte)
Adaptec 2940U2W (SCSI-Controller)
Hauppauge WinTV PCI FM Stereo (TV-Karte)
Die Kabel sind ordentlich verlegt und für die Festplatten extra ein Rundkabel eingebaut.
Das lauteste in diesem Rechner sind schlicht die Festplatten, die gerne entkoppeln würde, wenn bisherige Lösungen keine 5 1/4"-Einschübe dafür benötigen würden.

Da ich also ein Silence-Fan bin, war die FX5200 eigentlich primär dafür vorgesehen, in einem späteren Wohnzimmer-Rechner platz zu finden, weil sie ja performance-seitig nicht so prickelnd sein sollte. Aber natürlich wollte ich dieses Baby auf Herz und nieren Testen, auch wollte ich heruas finden, ob sich eine FX tatsächlich passiv kühlen läßt.

Nun ja, nicht so ganz, wie sich heraus stellte.

Gewohnheitsmäßig habe ich den externen Tempeartur-Fühler meines Mainboards auf der Rückseite der Karte fixiert (exakt im Zentrum der GPU !), um eine Kontrolle darüber zu haben, was das Kärtchen Temp-mäßig so treibt. Und habe die Tatsache dieser Maßnahme dann auch erst einmal wieder vergessen...
;-)

Beim intensiven Testen der Karte ist es mir dann wieder eingefallen, als ich die OC-Grenzen - dazu später mehr - auslotete. So hat es mich einfach interessiert, was so die Temperatur in meinem Gehäuse angeht. Und ich war geschockt:

Satte 74° hat's auf der GraKa-Rückseite angezeigt !
(nach einer extensiven Vollast-Scenerie)

Nach intensivem Testen hat sich dann also heraus gestellt, dass die Karte im Idle-Betrieb (Rechner startete in Windows, GraKa tut nix ;-) schon lockere 48° heiß wird und unter Vollast dann besagte 74°. Nicht, dass dadurch irgend etwas instabil lief, oder auch nur die kleinsten Anzeichen irgendwelcher Irregularitäten zu erkennen waren, aber mir war das zu eindeutig zu warm.

Und da ich noch einen Silent-Papst-Lüfter (8cm, 1500u/min, 19dba) herum liegen hatte, schraubte ich diesen kurzer Hand einfach auf den Passiv-Kühler der GraKa (sieht ulkigaus... Gruß an Piffan ;-) und schaute dann wieder nach den Temps... 32° Idle, 49° Vollast. DAMIT konnte ich dann leben... ;-)

Zu den Temps wäre also zu sagen: Idle Vollast
FX5200 'passiv' 48° 74°
FX5200 'aktiv' 32° 49°Ansonsten wäre noch zu sagen, dass diese Karte absolut stabil lief und keinerlei Mucken machte. In übrigen auch ganz hervorragend in meinem schon sehr betagtem BX-Rechner (Abit BX6R2 mit i440BX-Cipsatz und PIII700@900, FSB 100@129MHz, AGP 66@86MHz) mit einem 250W NoName-Netzteil.

Für die Multimedia-Fans unter Euch sei gesagt, dass die Signalqualität dieser Karte als sehr gut bezeichnet werden kann. Habe ja nun diverse Karten im direkten Vergleich (Matrox, ATI, nVidia) und keine lieferte ein besseres Bild, vor allem, wenn man die Auflösungen bis auf 1600x1200 hoch schraubte (na ja, das Bild von Matrox G100/550 und ATI R9500, auch das meiner guten alten gf3 von ELSA war auch nicht unbedingt schlechter ;-). Mein Monitor schafft hier noch 85Hz, zeigte aber ein absolut glasklares, flimmerfreies und unverzerrtes Bild. Keine Farbschwächen, oder sonstige Auffälligkeiten, bei satten, kräftigen Fraben !

Der Multi-Monitor-Betrieb funktioniert mit dem zusätzlichen DVI-Anschluss ganz hervorragend (war nun wirklich neu für mich und mit ein Kaufkriterium, weil ich es einfach mal ausgiebig testen wollte ;-). nView scheint hier weite Sprünge nach vorne gemacht zu haben, denn meine ersten Gehversuche mit 'ner ti4600 damals waren nicht gerade so problemlos verlaufen. Gepaart mit der wirklichen guten SQ dieser Karte ein echtes Plus dieser Karte.

Und wo wir schon dabei sind: Der TV-Out ist schlicht perfekt !

Man hörte ja nun einiges davon, wie schlecht teilweise der TV-Out von den Herstellern bei Karten der gf4-Reihe implementiert wurde, so daß sich nVidia dazu entschloss, hier auf eine eigene Lösung zu setzen.

Und was soll ich sagen ?
Es hat sich gelohnt !

Habe das 2. Display als Vollbild-Device definiert, so daß bei Start einer Overlay-Anwendung (z.Bsp. DScaler-TV als kleines Fenster oben-rechts im Bildschirm) die zugehörige Vollbild-Anzeige gleich auf dem sekundären Anzeigegerät (in meinem Fall der Fernseher im Wohnzimmer ;-) ausgegeben wird. Und das in einer unbeschreiblichen Qualität !

Ich habe ja nun schon einige Lösungen begutachten dürfen und fand bisher eigentlich die von ATI (R9500) am besten. Doch nun muss ich diese Fahne an die kleine FX5200 (im Albatron Referenz-Design !) weiter geben. Wer sich mal einen Sender im direkten Vergleich anschaut (z.Bsp. MTV2 im Fernseher und über Video-In vonmeiner TV-Karte), wird wissen, was ich meine. Als ich dann aber die Königsdisziplin angegangen bin... DVD über TV-Out auf VCR/TV... war ich endgültig hin und weg !

Ich hatte ja nun gehofft, dass der TV-Out der FX 'gut' sein würde, aber das er mir ein 'perfekt' entlockt, hätte ich nun nicht gedacht. Bisher habe ich halt hingenommen, dass bei einer solchen Computer-Lösung immer mit Defiziten zu rechnen ist, wobei die ATI-Lösung schon wirklich gut war, aber das war offensichtlich ein Trugschluss.

-

Um das Thema 'Betrieb' dann auch abzuschließen, sei also folgendes gesagt:- sehr stabil
- absolut anspruchslos
- passiv gekühlt für meinen Geschmack ein bissel zu warm
- sehr gute Signalqualität (auch im Multi-Monitor-Betrieb)
- schlicht perfekter TV-Out

Overclocking

Vorweg sei gesagt, dass ich lediglich absolt stabilen und fehlerfreien Betrieb favorisiere und damit auch nicht der kleinste Grafikfehler geduldet wird. Zum vorherigen Thema sei noch angemerkt, dass sich die Kühlungssituation (aktive oder passive Kühlung) nicht einmal auf das OC-Ergebnis auswirkte... insofern auch schon die passive Kühlung als ausreichend bezeichnet werden darf.

Vom Speicher hatte ich mir ja nun so einiges erhofft, war aber schon in dieses Thema eingestimmt, da die Reviewer im Netz da auch schon von Fall zu Fall schwierigkeiten hatten.

An dieser Stelle habe ich aber ein wichtiges Anliegen, an diejenigen, die sich eine solche Karte zulegen, sich aber mit der Grundleistung der Karte nicht zufrieden geben wollen und gedenken mehr heraus zu holen:
Bitte unbedingt darauf achten, dass Ihr eine Karte mit 128Bit-Specheranbindung bekommt !

Leider werden von einigen Herstellern (z.Bp. ASUS und ABit) auch Karten mit 64Bit-Anbindung angeboten, welche oftmals geringwertigen Speicher verbauen und im extremfall den Speicher sogar nicht einmal mit den von nVidia vorgegebenen Speichertakten betreiben (166MHz bei 6ns-Bausteinen in den o.g. Beispielen, statt 200 - also mind. 5ns Steinchen, die nVidia angibt).

Also unbedingt auf ein 128Bit-Speicherinterface achten, welches sicher an 8 Speicherchips erkannt werden kann und darauf, dass Speicher auch mit 200MHz angegeben ist !
Genug der Vorrede...

Der Speicher ließ sich leider nicht auf die erhofften 275MHz (550MHzDDR) takten, versprachen doch die 3,6ns Steinchen von Hynix ein solches Potential. So gehe ich derzeit davon aus, dass der Speicher schlicht unterversorgt ist und von der Karte einfach nicht genug Strom bekommt.

Bei 230MHz Speichertakt lief die Karte absolut stabil, ohne auch nur die gringsten Anzeichen einer zu hohen Taktung zu zeigen (z.Bsp. Artefakte in Streß-Situationen=, bei 240MHz aber, zeigten sich schon Fehler auf dem Desktop wärhrend des erzwungenen Tests mit den Detonator-Treibern.

DAS habe ich noch nie gesehen. Sonst traten Fehler immer erst in igendwelchen Hoch-Last-Situationen auf (z.Bsp. HighDetail-GameTest2 im Murks01), aber noch nie beim Desktop-Test der Treiber... merkwürdig.

Beim Speichertakt von 235MHz war also Schluß und da ich kein Freund davon bin, Hardware am absoluten Limit laufen zu lassen, habe ich es dann für meine Betrachtungen bei 230MHz(460MHzDDR) belassen.

-

Kommen wir nun zur GPU...

Tja, Default-Takt ist bekannter maßen 250MHz... 275MHz... 300MHz... 310MHz... kein Problem !

"Noch merkwürdiger", dachte ich und stellte dann aber fest, dass auch die performance mit diesen Einstellungen skalierte. Ich stellte dann aber doch fest, dass die 325MHz der 'ultra' nicht hinzubekommen war. Zwar zeigten sich in den Tests absolut KEINE Irregularitäten wie z.Bsp. Clipping-Fehler etc., sondern der Anwendung beendete sich einfach. 310MHz waren auf jeden Fall maximal drin und auch hier wieder die Devise: nicht am absoluten Limit laufen lassen, insofern ich es dann bei 300MHz belassen habe...

Tja, nun wissen wir, wofür die externe Stromversorgung des FX5200'ultra' da ist !
Nicht, dass die GPU diese Geschwindigkeit nicht leisten könnte... auch sie bekommt einfach nicht genug Saft.

-

Zusammenfassend kann man also zum Thema Overclocking folgendes sagen:
- Speichertakt bei max. 235MHz (Default = 200MHz)
- GPU-Takt bei max. 310MHz (Default = 250MHz)
- permantener Betrieb bei 300/230 (+20% GPU, +15% Speicher)
- höherer Speichertakt vermutlich nur mit Volt-Mod möglich
(Speicherbausteine sind bis 275MHz spezifiziert)
- höherer GPU-Takt benötigt vermutlich externe StromversorgungViel interessanter sind da aber wohl eher die real erreichbaren Werte, insofern wir nun zu deb Themen kommen, was die meisten hier wohl am meisten interessiert...

Lange Vorrede, gell ?
Gehört aber MO zu einem umfassenden Erfahrungsbreicht einfach dazu.



Kompatibiliät

Dieser Punkt hat mich natürlich besonders interessiert, neben den schon angesprochenen Features Signalqualität, nView und TV-Out. Und gerade hier hat mich nVidia auch nicht enttäuscht.

Der Detonator 43.45 hat in Verbindung mit der FX5200 absolut überzeugt. So lief schlicht ALLES, was ich ihm vorgeworfen habe. Alle Games und Benches, neben unzähligen Tech- und Scene-Demos liefen. Auch viele der ATI-Demos waren nun kein Problem mehr, da die FX'er ja alle Features unterstützen, die auch ATI bietet, mit Ausnahme des 96-Bit-Farbraumes. Wurde dieser also von der Applikation explizit gesetzt, wurden Objekte nicht mehr dargestellt (so fehlten dann Teile des Bildes ;-). Und das ATI-Dolphins-Demo wollte ebenfalls nicht laufen, da dieses (ATI-spezifische, optionale) DX8(.1) Feature nicht von den nVidia-Treibern unterstützt wird.

Selbst der bekannte MSAA-'Bug' unter dem Deto43.45 war verschwunden, so dass dieser wohl tatsächlich nur bei gf3/4-Karten anzutreffen ist... aber so einiges ist mir dann doch noch aufgefallen, welches ich hier kurz zum besten geben möchte: der NV30-Modus einer bekannten Alpha funktioniert nicht korrekt
bei SplinterCell verschwindet der Lichterschein komplett, wenn AA aktiviert wird
(bei der gf3 schienen die Lichter dann durch die Wände ;-)
das nVidia-Demo "Bumpy Shiny Patch" funktionierte nicht mehr, da die OGL-Extension 'GL_NV_evaluators' nicht exisitierte
Im Intro von C&C Generals gab's leichte Grafikfehler, welche InGame aber verschwanden
bei SimCity 4 verschwanden viele Objekte nach Aktivierung von AA
UT2003 gibt es Probleme im Zusammenhang mit dem Performance-Mode 'Application'Und das war's dann auch schon...

Getestet wurden die folgenden Games:
Alice, AOM, Aquanox 1/2, C&C Generals, CMR2, Devastation, Dronez, DTMRaceDriver, DungeonSiege, LOTR: Fellowship, Freelancer, Gothic 2, Himan2, Indy6, JK2, MasterRally, Morrowind, NFS 4-6 (HP, Prosche, HP2), NOLF2, NWN, Quake 1 Tenebrae, Quake3, RallySportChallange, Red Faction 2, RTCW, The Thing, TombRaider 1-5, SeriousSam 1/2, Silent Hill 2, SimCity4, SplinterCell, UltimatePinnball, Unreal 1/2, UT/UT2003, Warcraft3
(ohne Anspruch auf Vollständigkeit ;-)

Auch noch unter die Lupe genommen wurden folgende Demos:
ChaserSP1.3, GunMetal, EliteForce2, Enclave, MotoGP und eine zensierte Alpha ;-)

Natürlich kamen dann noch eine Unzahl an Techdemos's vom ImgTech, Crytek, Madonion (um nur sehr wenige zu nennen ;-) zum Tragen, wie auch SceneDemos (schätzungsweise über 100 getestet) und noch viele andere Dinge wie auch Visualisierungs-Tools etc.pp.

-

Bis auf die o.g. Problemchen sind keine weiteren Dinge auffällig gesen !
So war ich doch sehr erstaunt, wie kompatibel dieser Treiber für eine neue Hardwaregeneration zu Werke ging. Schließlich sind unter den getesteten Sachen so einige dabei gewesen, die schon diverseste Jährchen auf dem Buckel haben.

Zusammenfassung:- äusserst kompatibel
- kleinere Auffälligkeiten in wenigen Games/AppsIm übrigen sei noch gesagt, dass das meiste davon durchaus mit 2xAA/4xAF spielbar war... was uns zu dem nächsten und auch vorerst letzten Thema führt...



Benchmarks

Dieser Punkt dürfte wohl die meisten Leutz da draußen interessieren, weswegen ich auch bis zum Schluß damit gewartet habe... ;-)

Allerdings sollte man erst einmal erwähnen, dass das Ziel der FX5200 sicher nicht ist, die gf4ti4200 abzulösen, oder dieser Karte auch nur annähernd das Wasser zu reichen. Sondern die FX5200 ist gegen das bisherige Low-End-Segment gf4mx plaziert und wird diese wohl über kurz oder lang ablösen.

So ist es denn auch nicht verwunderlich, dass dieses Kärtchen in Ihrer Rohleistung auch gegen meine OC'te GF3 nicht so sonderlich zu überzeugen vermag.

Getestet wurde mit folgendem System:

ASUS A7N8X del/gd (nForce2)
AthlonXP 2100+ @ 2700+ (Tbred-'B')
2x 256MB Corsair PC433 CL2 DDR-SDRAM @ 2-2-2-4
WindowsXP Prof. SP1a DX9a

Nicht gerade High-End, aber duchaus als 'gehoben' anzusehen.
Verglichen wurden die Leistungsdaten der FX5200 mit meiner guten alten gf3, welche aber in etwa auf gf3ti500-Niveau übertaktet ist und somit auf einem Takt von 235/265(530ddr) läuft (Default=200/230).

Die Murks01-Ergebnisse füge ich als Anhang wie immer an das Ende dieses Posts...

Hier also dann der Vergleich der beiden in Ihrer Rohleistung:
--------------------------------------------------------------------
3DMark2003 gf3 5200 Diff 5200 Diff
235/265 250/200 300/230
--------------------------------------------------------------------
3DMarks 1.261 1.467 16,34% 1.717 36,16%

-Game1 85,81 80,96 - 5,65% 94,09 9,64%
-Game2 8,73 7,48 - 14,31% 9,01 3,24%
-Game3 6,67 5,86 - 12,02% 6,82 2,34%
-Game4 - 8,40 - 9,75 -

CPUMarks 580 565 - 2,59% 571 - 1,55%

-CPU1 58,87 56,27 - 4,40% 57,06 - 3,07%
-CPU2 11,29 11,18 - 1,02% 11,24 - 0,49%

Fillrate(Single) 629,27 462,64 - 26,48% 553,64 - 12,02%
Fillrate(Multi) 1384,31 708,97 - 48,79% 846,37 - 38,86%
Vertex Shader 2,97 4,72 59,11% 5,23 76,45%
Pixel Shader 2.0 - 7,60 - 9,07 -
Ragtroll 3,41 4,24 24,49% 4,94 44,90%

no sounds 39,59 - - 38,78 - 2,05%
24 sounds 35,16 - - 34,82 - 0,96%
60 sounds 31,90 - - 31,88 - 0,07%
-diff 24 s. - 11,18% 0,00% - 10,19%
-diff 60 s. - 19,42% 0,00% - 17,79%

--------------------------------------------------------------------
gf3 5200 Diff 5200 Diff
235/265 250/200 300/230
--------------------------------------------------------------------

Codecreatures 11,4 12,8 12,28% 15,4 35,09%
-max 15 18 20,00% 21 40,00%

Dronez 136,6 98,2 - 28,11% 118,2 - 13,47%
-min 57 27 - 52,63% 35 - 38,60%
-max 500 379 - 24,20% 444 - 11,20%

GLMark 87,5 54,3 - 37,94% 64,7 - 26,06%
-min 44 24 - 45,45% 28 - 36,36%
-max 268 165 - 38,43% 197 - 26,49%

Quake3 1.17
-Demo001 214,5 172,9 - 19,39% 202,5 - 5,59%
-Annihilator 96,4 89,9 - 6,74% 96,0 - 0,41%
-nv15demo 72,9 68,0 - 6,72% 72,0 - 1,23%

Alice
-VGA 133,5 92,0 - 31,09% 111,4 - 16,55%
-Curiosity 80,7 56,9 - 29,49% 68,5 - 15,12%

RTCW 1.4
-checkpoint 124,0 75,7 - 38,95% 89,9 - 27,50%

Jedi Knight II
-jk2ffa 147,2 141,9 - 3,60% 147,4 0,14%

DungeonSiege 96,6 93,7 - 3,00% 93,9 - 2,80%
-min 9 8 - 11,11% 7 - 22,22%
-max 355 348 - 1,97% 349 - 1,69%

ImgTech
-VillageMarkD3D 73 51 - 30,14% 61 - 16,44%
-VillageMarkOGL 84 64 - 23,81% 77 - 8,33%
-TempleDemo 92,4 48,9 - 47,08% 58,5 - 36,69%

UT2003
-flyby 99,0 81,5 - 17,68% 98,0 - 1,01%
-botmatch 62,5 52,5 - 16,00% 59,0 - 5,60%

<zensiert>
-640x480 33,0 27,1 - 17,88% 31,9 - 3,33%
-600x600 24,7 18,9 - 23,48% 22,4 - 9,31%

Aquamark 2.3 53,1 34,2 - 35,59% 40,4 - 23,92%
-min 33 17 - 48,48% 22 - 33,33%
-max 90 80 - 11,11% 79 - 12,22%

ChameleonMark
-real 68,8 60,0 - 12,79% 71,7 4,22%
-glass 58,7 44,7 - 23,85% 53,6 - 8,69%
-shiny 59,4 44,6 - 24,92% 53,7 - 9,60%
Nicht gerade überwältigend, oder ?
Aber auch nicht wirklich überraschend...
;-)

Die Interpretation der Ergebnisse möchte ich hiermit zur Diskussion stellen, sind doch einige davon sehr interessant.
Sehr interessat ist allemal, dass die Leistung dieser GraKa sehr gut mit der Takterhöhung (GPU +20%, RAM +15%) skaliert...

Ich sollte noch erwähnen, dass auch die nVidia-DX9-Demos absolut flüssig liefen, wenn man mal von "Dawn ultra" absieht, die mit ca. 15fps über den Bildschirm tänzelte, was man nicht zwingend als flüssig bezeichnen kann. Allerdings kommt hier auch die FX5800 schon ins straucheln...

Eigentlich wollte ich schon den Test beenden, als mir bei einem Test (Zusammenhang weiß ich nicht mehr ;-) aufgefallen ist, dass UT2003 ein bissel zähflüssig war. So schaute ich in die Treiber-Einstellungen und stellte fest, dass 2xAA/4xAF aktiviert war. DAFÜR war die beobachtete Performance aber bei weiten nicht schlecht (bitte immer meine gf3 im Hinterkopf behalten ;-). So machte ich mich auf und testete noch ein bissel weiter...

Hier der Vergleich der beiden mit meiner präferierten Quality-Einstellung:
(2xRGMS Antialiasing und 4° anisotrope Filter, kurz 2xAA/4xAF)
------------------------------------------------
3DMark2003 gf3 5200 Diff
235/265 300/230
------------------------------------------------
3DMarks 626 1.130 80,51%

-Game1 43,63 56,30 29,02%
-Game2 3,70 5,33 44,07%
-Game3 3,67 4,42 20,58%
-Game4 - 8,14 -

CPUMarks 505 536 6,14%

-CPU1 50,50 51,71 2,39%
-CPU2 9,95 10,90 9,52%

Fillrate(Single) 369,61 351,37 - 4,93%
Fillrate(Multi) 870,74 815,29 - 6,37%
Vertex Shader 2,91 5,11 75,63%
Pixel Shader 2.0 - 8,26 -
Ragtroll 2,61 3,64 39,47%

no sounds - - -
24 sounds - - -
60 sounds - - -
-diff 24 s. 0,00% 0,00%
-diff 60 s. 0,00% 0,00%

------------------------------------------------
gf3 5200 Diff
235/265 300/230
------------------------------------------------

Codecreatures 9,0 11,3 25,56%
-max 13 16 23,08%

Dronez 82,2 78,0 - 5,10%
-min 40 22 - 45,00%
-max 212 241 13,68%

GLMark 46,0 44,1 - 4,13%
-min 22 18 - 18,18%
-max 124 125 0,81%

Quake3 1.17
-Demo001 111,2 124,1 11,60%
-Annihilator 61,4 72,0 17,26%
-nv15demo 57,1 55,1 - 3,50%

Alice
-VGA 63,6 56,7 - 10,85%
-Curiosity 33,7 35,2 4,45%

RTCW 1.4
-checkpoint 69,2 77,5 11,99%

Jedi Knight II
-jk2ffa 117,6 137,9 17,26%

DungeonSiege kein AA 77,8 -
-min kein AA 6 -
-max kein AA 348 -

ImgTech
-VillageMarkD3D 26 34 30,77%
-VillageMarkOGL 32 55 71,88%
-TempleDemo 47,7 34,4 - 27,88%

UT2003
-flyby 30,4 64,0 110,53%
-botmatch 19,9 37,1 86,43%

<zensiert>
-640x480 20,5 19,3 - 5,85%
-600x600 14,7 13,1 - 10,88%

Aquamark 2.3 19,4 24,3 25,26%
-min 11 12 9,09%
-max 49 56 14,29%

ChameleonMark
-real 31,2 35,4 13,46%
-glass 32,3 34,8 7,74%
-shiny 31,6 33,7 6,65%
Da sieht die Sache doch schon wieder ganz anders aus, oder ?

Die FX5200 ist schlicht in vielen Benches unter Quality-Einstellungen schneller, als meine gf3 !
(und das teilweise ganz erheblich)
*BUMM*



Fazit

DAS hätte ich nun nicht erwartet.

Die FX5200, die ich eigentlich nur aus Interesse an der Technologie angeschafft hatte, mutierte plötzlich zu einer Ablösung meiner gf3. Nicht nur, dass sie wesentlich mehr Features bot, DX9 unterstützte und passiv gekühlt war, nein, nun ist sie auch noch hinsichtlich der Performance in den von mir präferierten Einstellungen der Treiber für mich interessant geworden.

Das war dann auch der eigentliche Anlaß, warum ich mich dazu entschloss, meine Erfahrungen hier kund zu tun. Auch war mein Interesse an der Karte selbst (nicht nur an der Technologie) geweckt, was mich fortwährend zu irgendwelchen Betrachtungen und Tests animierte. So gibt es zu dem Kärtchen und der verwendeten Technologie noch eine Menge mehr zu sagen, was an dieser Stelle (in diesem Post ;-) aber wirklich zu weit führen dürfte.

Insbesonder Betrachtungen zu den Performance-Einstellungen der Treiber im Zusammenhang mit Quali-Features oder der generellen Bildqualität waren/sind sehr interessant.

Gerne beantworte ich Fragen hierzu und würde mich sehr freuen, wenn dieser Thread wirklich der Ermittlung von Fakten dient und nicht wieder in heillosem Geflame untergeht.

Bis dann und viel Spaß beim Lesen

Razor


So, ich geh' jetzt erst mal Frühstücken... für etwaig enthaltene Rechtschreib-Fehler zeichne ich mich alleine verantwortlich und werde so einige davon vermutlich noch korrigieren, ganz sicher aber nicht aufgrund externer Anmerkungen... ;-)

Hier also die angekündigten Murks01-Ergebnisse:

mictasm
2003-05-11, 12:46:35
Danke für den Erfahrungsbericht. Ist interessant und bietet ja doch die eine oder andere Überraschung.

MIC

Liquaron
2003-05-11, 12:53:49
Ein sehr schöner Bericht ! ;)

Der könnte auch ins User-Hardwaretest Forum!

Klasse Arbeit Razor!!!!

Da scheint die Graka wohl wirklich attraktiv zu sein.

Übrigens haste mal oc mit dem aktiven Lüfter drauf gemacht?

Würde mich mal interessieren wieviel sie dann schafft. =)

Raff
2003-05-11, 12:59:40
Jo, netter Bericht, Razor!
Jetzt sehe ich die FX5200 etwas anders, bisher dachte ich von ihr "Hm, viel zu langsam", aber nun weiß ich ja, dass sie meine GF3 teils deutlich abzieht und halte sie für brauchbar ;)

Was meinst du mit "Crash" bei Dungeon Siege bei AA/AF bei der GF3? Hast du dort nichts angegeben, weil das AA dort nicht geht? Oder gabs echt nen Aufhänger?

edit: Liquaron, er hat doch geschrieben, dass RAM und Core wohl aufgrund von zu wenig Saft nicht höher gehen - da wird bessere Kühlung auch nix bringen ;)

MfG
Raff

up
2003-05-11, 14:47:37
Prima gemacht - Danke!
Die kleine FX hat sich ja erstaunlich wacker geschlagen :o)
Achja, noch eine Bitte: Welche Auflösung war das - 1024x768?

up

Gothmog
2003-05-11, 14:49:44
Hi!

Wirklich ein sehr gelungener Testbericht!

Hab zuerst auch so wie Raff über die 5200er gedacht...aber nach deinem Test überleg ich mir das Teil als Ersatz für meine Elsa Geforce 1 zu kaufen...

Hätte da nur ne kleine Frage: Bremst mein 700er AMD die Karte aus???
Die Geforce 1 leistet immer noch brav ihre Dienste, aber die Rohleistung wird langsam zum Problem:
Ich will sagen wir mal BF1942 flüssig zocken (mit max 2x AA und 2xAF), Auflösung sagen wir 800x600 oder aber max 1024x768... und mittlerer Detailstufe - reicht die 5200er aus?Denn die Gf1 packt das Spiel leider nicht mehr.


Razor hat die Karte ja auch in seinem langsameren Rechner eingebaut:

quote:
...Ansonsten wäre noch zu sagen, dass diese Karte absolut stabil lief und keinerlei Mucken machte. In übrigen auch ganz hervorragend in meinem schon sehr betagtem BX-Rechner (Abit BX6R2 mit i440BX-Cipsatz und PIII700@900, FSB 100@129MHz, AGP 66@86MHz) mit einem 250W NoName-Netzteil...


thx&greetz
Gothmog

Raff
2003-05-11, 14:56:47
Originally posted by Gothmog
Hi!

Wirklich ein sehr gelungener Testbericht!

Hab zuerst auch so wie Raff über die 5200er gedacht...aber nach deinem Test überleg ich mir das Teil als Ersatz für meine Elsa Geforce 1 zu kaufen...

Hätte da nur ne kleine Frage: Bremst mein 700er AMD die Karte aus???
Die Geforce 1 leistet immer noch brav ihre Dienste, aber die Rohleistung wird langsam zum Problem:
Ich will sagen wir mal BF1942 flüssig zocken (mit max 2x AA und 2xAF), Auflösung sagen wir 800x600 oder aber max 1024x768... und mittlerer Detailstufe - reicht die 5200er aus?Denn die Gf1 packt das Spiel leider nicht mehr.


Razor hat die Karte ja auch in seinem langsameren Rechner eingebaut:

quote:
...Ansonsten wäre noch zu sagen, dass diese Karte absolut stabil lief und keinerlei Mucken machte. In übrigen auch ganz hervorragend in meinem schon sehr betagtem BX-Rechner (Abit BX6R2 mit i440BX-Cipsatz und PIII700@900, FSB 100@129MHz, AGP 66@86MHz) mit einem 250W NoName-Netzteil...


thx&greetz
Gothmog

Zum flüssigen Zocken von Battlefield dürfte die CPU zu stark bremsen. Die 5200er dürfte aber genug Saft haben, 2xAA + 8xAF sollte bei 800x600x32 und High Detail schon gehen. Allerdings solltest du vielleicht mal über die Übertaktung der CPU nachdenken.

MfG
Raff

Gothmog
2003-05-11, 15:38:15
Thx für die rasche Antwort:)

Razor hat seinen P700 ja @900 MHz laufen...Die AMD Prozessoren sind was Hitzeentwicklung angeht ja nicht gerade besser als die von Intel...
Die Kühlung übernimmt derzeit ein Arctic Cooling Fan der bis 1500 MHz keinerlei Probs machen sollte.

Könnte ich meinen 700er sagen wir mal auch auf 900 bringen??? Wie das Ganze dann zu bewerkstelligen ist werd ich mir dann mal im CPU Forum ansehen oder halt googeln...sehe gerade auf www.geizhals.at dass ein 1200er nur ca 30 €uronen kostet - ich schätze ich werd die Bastelstunde lassen und mir das Teil zulegen!

In Verbindung mit einer Geforce 5200 sollte das Gerät zumindest eine passable (Spiele)Leistung in niedrigeren Auflösungen erbringen können.

Wie siehts mit der Speicheranbindung aus? Razor schreibt dass manche Karten nur 64bit und nicht 128 haben, und dass es auch beim Speicher (Hynix soll ja ganz gut zum ocen sein habe ich gehört) Unterschiede gibt


- ist das der Unterschied Ultra/nonUltra?

- kann in diesem Zusammenhang schon wer sagen (oder gibts irgendwo einen FX5200 Vergleich in ´nem Thread) welche Karte empfehlenswert ist ?- aktive Kühlung bevorzugt...


greetz
Gothmog

MadManniMan
2003-05-11, 17:21:49
jo! feiner bericht.

nur möchte ich einfach mal eines anmerken: die von dir favorisierte einstellung mag ja auf der fx schneller sein, aber der rawpower-malus ist meines erachtens gewichtiger. schließlich besitze ich eine vergleichbare gf3. und auf der machen quali-features in 1024 bei neuen apps kaum noch spaß!

Unregistered
2003-05-11, 17:37:34
So einen Bericht hätte ich gern auch von der 5800/Ultra !!!

Aqualon
2003-05-11, 17:47:32
Ah, hier gibts ja noch nen Thread dazu *g*

Toller Test Razor, kann da leider nicht mit sovielen Werten dienen, da ich nur wenig Zeit am WE hatte.

Hab die genauen Detail-Ergebnisse leider zu Hause liegenlassen und kann deswegen nur mit den Punkten dienen:

3DMark 2000 4660 (@250/400)
3DMark 2001 SE 4130 (@250/400)
3DMark 2001 SE 4263 (@270/430) <-- falscher GPU-Takt korrigiert
3DMark 2003 1164 (@250/400)
3DMark 2003 1231 (@270/430)

System:

Duron 700(7*100), 256 MB SDRAM PC133 3-3-3, A7V133 (Via KT133A), Leadtek A340 TDH, Win 98, DirectX 9, Leadtek Det. 43.45

Ich kann die Werte für das System jetzt nicht einordnen, weil ich keine Vergleichswerte für ein ähnliches System habe.

Auf jedenfall sind die Benchmarkwerte um einiges besser als mit meiner alten GeForce2MX (ca. 1300 im 3DMark 2001).

Von daher hat sich das Upgrade auf die FX5200 jedenfall gelohnt (und ich kann endlich NHL99 ohne ausgefranste Spieler zocken, 4xAA sei Dank :))

Kleiner Edit zum Overclocking:

Auf mehr als 215 MHz konnte ich den Speicher nicht bringen. Ab 225 MHz kamen ziemlich deutliche Bildfehler, obwohl der Speicher für 250MHz freigegeben ist. Ich konnte wie Razor auch am Desktop die Bildfehler beobachten, wenn ich den Speicher zu hoch getrieben habe.

Den Chiptakt hab ich mal probeweise auf 270 MHz gesetzt und nach 5 Stunden Serious Sam 1 zocken zeigte WinFox (die Software von Leadtek) als Chiptemperatur gerade mal 35 Grad an. Im Vergleich zu den 30 Grad, die ich am Desktop bei 250 MHz Chiptakt hatte, also keine wirklich dramatische Erhöhung. Wobei ich jetzt natürlich nicht weiß, wie genau die Temperatur von der Software ausgelesen wird.

Razor
2003-05-11, 18:21:49
Hi leutz,

erst einmal danke für die Blumen !

Aber seit bitte versichert, dass dieser Bricht nicht dazu dienen soll, die 5200 jetzt als ideale Upgrade-Möglichekit für eine gf3 zu betrachten. Klar, wer die anderen Features benötigt, die eine gf3 nicht hat (nView, i.e. Multi-Moni, DX9, höhere Qualit-Leistung), für den können sich die 100€ schon lohnen.

War halt nur erstaunt, dass die Rohleistung bei 1024 erheblich unter einer gf3, die Quali-Leistung aber teils erheblich darüber gelegen hat.

So, nun aber zu den einzelnen Kommentaren:

@Liquaron

"Übrigens haste mal oc mit dem aktiven Lüfter drauf gemacht?
Würde mich mal interessieren wieviel sie dann schafft."

Wie Raff ja schon sagte... die GPU machte auch bei passiver Kühlung noch locker die 310MHz mit und versagte danach einfach den Dienst, ohne die sonst üblichen Anzeichen. So ist sie vermutlich unterversorgt, was wohl ohne externe Stromversorgung auch nicht zu beheben ist... schließlich muss die externe Stromversorgung auf den 'ultras' ja für irgendetwas gut sein.

Beim Speicher siehts vermutlich anders aus.
Da dürfte noch so einiges gehen, wenn die Versorgung hier leicht erhöht wird.

@Raff

"Was meinst du mit "Crash" bei Dungeon Siege bei AA/AF bei der GF3? Hast du dort nichts angegeben, weil das AA dort nicht geht?"

Korrekt !

Ich hab's nochmal nachgebencht - also mit deaktivertem AA - und das Ergebnis war absolut das Gleiche. Und da ich von früheren Tests weiß, dass dieses Game zwar massiv CPU-Limitiert ist, das aber auch nicht soweit geht, dass hier AA 'for free' ist, habe ich die Ergebnisse hier kurzerhand weg gelassen.

Werde das gleich mal ändern.

Normalerweise kostet das AA ja trotzdem Leistung, obwohl davon nichts zu sehen ist (MSAA-Bug), wenn man mal von SplinterCell absieht, was sehr gut bei den ImgTech-Demos zu sehen ist und ich deswegen auch die Ergebnisse drin gelassen habe.

Bei DungeonSiege war das aber anders...

@up

"Welche Auflösung war das - 1024x768?"

Jup.
Alles in 1024x768x32 in MaxDetails...

@Gothmog

Als Ersatz für eine gf1 'taugt' die Karte allemal !

"Bremst mein 700er AMD die Karte aus ?"

Diese Frage klassisch nur sehr schierig zu beantworten ist...
In klar CPU-limitierten Scenerien wird auch diese Karte nicht mehr Leistung breingen können, als die gf1. Insofern man die Kombination Athlon700 und gf1 schon fast als gelungen bezeichnen kann (vorher lief auch die gfdd im PIII900, jetzt ist es die gf3 !), aber ein bissel mehr sollte noch gehen.

Sagen wir es so, steck in Deinen Rechner eine GHz-CPU und die 5200 reicht für solche Games ala BF1492 in einer 800'er Auflösung locker aus. Allerdings ist gerade dieses Game wirklich nicht das gelungenste Beispiel... halt massiv CPU-limitiert.

Was auf der anderen Seite heißt: 2xAA/4xAF sind dort überhaupt kein Problem !
(i.e. KEIN Unterschied zu 0xAA/0xAF ;-)

"Wie siehts mit der Speicheranbindung aus? Razor schreibt dass manche Karten nur 64bit und nicht 128 haben, und dass es auch beim Speicher (Hynix soll ja ganz gut zum ocen sein habe ich gehört) Unterschiede gibt

- ist das der Unterschied Ultra/nonUltra?"

Jain.

Die 'ultra' ist lediglich eine höher getaktete Version der nonUltra. Natürlich ist dort besserer Speicher verbaut, um den sehr viel höheren Takt zu schaffen, vor allem aber ist die Versorgung der Karte ganz anders. Die CPU wird sehr viel mehr Saft bekommen, wenn mit einer exterenen Stromquelle verbunden (sonst ist sie vermutlich langsamer, als die nonUltra), und der Speicher ist mit Sicherheit nicht mehr so unterversorgt, wie es bei dedr nonUltra der Fall ist.

Auf jeden Fall sollte es definitv KEIN 64-Bit-Interface bei der ultra geben. Dies ist vermutlich lediglich der nonUltra 'vorgehalten', um eben noch günstigere Implementierungen zu erlauben, als es das Referenzboard hergibt.

Zu erkennen ist des Speicherinterface wohl an der Anzahl der Speicherchips.
4 = 64Bit / 8 = 128Bit.

Mag sein dass es dort auch ausnahmen gibt (4=128Bit), aber das ist dann für einen Laien nun wirklich nicht mehr zu erkennen. Wenn man sich so eine Karte Online kauft, sollte man sich auf jeden Fall die Eigenschaften zusichern lassen (Screen-Shot von den Spezifikationen z.Bsp.) und zusätzlich darauf achten, dass auch 200MHz Speichertakt angegeben sind.

"- kann in diesem Zusammenhang schon wer sagen (oder gibts irgendwo einen FX5200 Vergleich in ´nem Thread) welche Karte empfehlenswert ist ?- aktive Kühlung bevorzugt..."

Gute Frage...
Schon mal in den zugehörigen Thread im GraKa-Forum geschaut ?
Grafikchips: FX5200 Reviews (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=70268)

Da kann man sich dann so richtig in Reviews austoben !
;-)

@MadManniMan

"die von dir favorisierte einstellung mag ja auf der fx schneller sein, aber der rawpower-malus ist meines erachtens gewichtiger. schließlich besitze ich eine vergleichbare gf3."

DAS ist der Grund, warum ich das so aufgeteilt habe.

Wem die Rohpower wichtiger ist und die Karte in dieser Hinsicht als Upgrade zu einer gf3 sieht, wird vermutlich enttäuscht sein. Deswegen ja auch die Einleitung in diesem Post...

Wer aber auf die Quali-Features nicht verzichten möchte, genausowenig aber auf DX9, die gute SQ und den perfekten TV-Out, nicht gerde ein Hardcore-Zocker ist, dafür dann aber nicht mehr als 100€ ausgeben möchte, für den scheint die 5200 schlicht ideal...

Was für ein Spagettisatz !
Aber ich denke, Du verstehst, was ich meine...

"und auf der machen quali-features in 1024 bei neuen apps kaum noch spaß!"

Kann ich gut nachvollziehen, deswegen war ich von der FX5200 ja so hin und weg.
Schau Dir einfach nur UT2003 an und Du weißt, was ich meine:
UT2003 gf3 5200
235/265 300/230
-flyby 30,4 64,0 110,53%
-botmatch 19,9 37,1 86,43%
Die Performance hat sich hier glatt verdoppelt !
Natürlich trifft dies nicht auf alle Games zu, aber...

Aber klar, wenn der NV35 nur halbwegs das wird, was ihr nachgesagt wird, ist sie mein !
Aber die FX5200 hat mir Lust auf mehr gemacht und mir auch gezeigt, dass reine Leistung nicht alles ist.

Und DAS war wirklich mal eine neue Erfahrung !

@Unreg

"So einen Bericht hätte ich gern auch von der 5800/Ultra !!!"

Sicher nicht von mir !
Aber vielleicht wird das was mit der 5900...
;-)

@Aqualon

Danke für Deine Werte Aqualon !
(werde gleich nochmal in den anderen Thread hinein schauen... ;-)

Hilft es vielleicht denjenigen, deren 'Unterbau' nicht ganz so ausgelegt ist, wie der bei mir jetzt. Zumal ja gerade der Murks01 teilweise extrem CPU-limitierend ist.

Und ja, als Upgrade einer gf2mx (oder auch der gf1, siehe oben) sollte sich eine FX5200 100%'ig auszahlen !

Und nochgmals ja, das mit dem Speicher scheint wirklich beabsichtigt.
Bin mal gesapnnt, ob sich im iNet demnächst noch ein paar Vmod's für diese Kärtchen finden.
Da die FX5200 extrem in Ihrer Bandbreite beschränkt ist, dürfte eine ordentliche Zunahme hier Wunder wirken.
(würde ich der Keinen aber nicht antun ;-)

Und bei der GPU kannst Du Dich ruhig mal höher trauen.
Erst wenn Grafikfehler zu beobachten sind, wird's kritisch und man sollte mit dem Takt zurück gehen...
Solange man Schrittweise vorgeht, sollta da absolut nichts passieren können, zumal gerade bei der FX5200 ein anderer limitierender Faktur zugrunde liegen scheint (zuwenig Saft ;-), und damit die GPU gar nicht an ihr Limit kommen kann.

Habe übrigens einen Temp-Fühler für meine Betrachtungen genutuzt und ein elektronisches Thermometer als Referenz, um die Angaben des Mobo's zu verifizieren. Auch habe ich die Temps an der Rückseite der GPU abgenommen...

Aber Dein Post ist eine ideale Ergänzung zu diesem Erfahrungsbericht, zeigt er doch die Performance eines ganz andern Systemunterbaus. Wenn Du Lust hast, kannst Du ja die fehlenden Werte noch nachtragen ?

-

Bis dann und vielen Dank nochmal an alle, für die positive Resonanz

Razor

Aqualon
2003-05-11, 18:35:09
@Razor

Ich komm leider erst wieder in 2 oder 3 Wochen dazu, mir das Kärtchen weiter anzuschauen. Hier in meiner Studentenbude hab ich leider keinen Platz für den normalen PC, benutz hier nen Laptop.

Dann poste ich mal die Detailwerte von 3DMarks (kommt man eigentlich an die Detailwerte vom 2003er ran, wenn man nur die Freeversion hat und die Werte nicht hochlädt?) und einige Benches zu Serious Sam 1 (das mit 1024*768*32 4xAA, 8xAF wirklich super aussieht, für ein 2 Jahre altes Spiel).

Werd mir auch sonst noch ein paar freie Benchmarks besorgen, um das Portfolio abrunden zu können ;-)

mapel110
2003-05-11, 19:17:51
hast du quality/performance oder appl AF benutzt ?

Razor
2003-05-11, 19:25:29
Originally posted by Aqualon
@Razor

Ich komm leider erst wieder in 2 oder 3 Wochen dazu, mir das Kärtchen weiter anzuschauen. Hier in meiner Studentenbude hab ich leider keinen Platz für den normalen PC, benutz hier nen Laptop.

Dann poste ich mal die Detailwerte von 3DMarks (kommt man eigentlich an die Detailwerte vom 2003er ran, wenn man nur die Freeversion hat und die Werte nicht hochlädt?) und einige Benches zu Serious Sam 1 (das mit 1024*768*32 4xAA, 8xAF wirklich super aussieht, für ein 2 Jahre altes Spiel).

Werd mir auch sonst noch ein paar freie Benchmarks besorgen, um das Portfolio abrunden zu können ;-)
Das mit 3DM03 sollte schon gehen...
(siehe angehängten ScreenShot)

Wenn in dem Screen auf Details geklickt wird, kommen die einzelnen Werte. Ich habe das für meine Vergleiche aber anders gelöst, da ich es hasse, die ganzen Werte abzuschreiben (deswegen die 3DM01-Werte auch immer als ScreenShot ;-). So kann man auf 'Online Result Browser' klicken, nachdem dann erst nochmal gefragt wird, ob man auch wirklich... dort gibt es dann den Button Details, der diese dann als XML-Datei in einem Browser-Fenster öffnet. Diese XML-Datei speichere ich dann und werte sie unter M$-Access aus (dort werden dann auch die ganzen anderen Ergebnisse nachgetragen). Auch erzeugt mir Access dann auch die Ausgabe eines Vergleiches, bei der ich derzeit bis zu 4 Sequenzen miteinander vergleichen kann...

Aber wie schon gesagt, die 'Details' in unten angehängten Sceen dürften das anzeigen, was Du benötigst.

Bis dann

Razor

P.S.: Na dann halt in 2-3 Wochen die restlichen Werte...
Obwohl ich mir vorstellen könnte, dass es so einigen unter den Fingern brennt.
;-)

Aqualon
2003-05-11, 19:49:14
@Razor

Mein Problem ist, dass ich den 3DMark 2003 von der aktuellen Gamestar DVD installiert habe und der bietet dort nur die Auswahl, die Ergebnisse hochzuladen oder das Projekt zu speichern. Der Rest ist ausgegraut.

Ich lad mir mal die aktuelle Version von Futuremark selbst runter, vll. klappts ja mit der wie gewünscht.

Aqua

P.S. Gut Bench will Weile haben, oder so *g* Wobei beim 3DMark 2001 SE die meisten Einzelwerte eh nicht so interessant sein dürften. Die ganzen theoretischen Tests haben bei mir so ziemlich das gleiche ergeben wie bei dir (die Werte kamen mir alle so bekannt vor ;)) und die Werte der Gamebenches sind eh alle CPU limitiert (Nature war bei ca. 22 fps soweit ich mich erinnere)

Aber genaueres dann gegen Ende des Monats ;-)

Razor
2003-05-11, 20:16:41
Jep, ist die sog. 'freie' Version... da kann man nichts machen.

Bis denne

Razor

Hamster
2003-05-12, 15:15:52
mhhh, heisst das, ich bekomme mit einem volt mod und aktiven kühlung vielleicht doch eine taktung von 350|300 hin?

und das für 100 euro? das wäre doch was .....

Razor
2003-05-13, 18:22:59
Originally posted by Hamster
mhhh, heisst das, ich bekomme mit einem volt mod und aktiven kühlung vielleicht doch eine taktung von 350|300 hin?

und das für 100 euro? das wäre doch was .....
300MHz für den Speicher ?
... vermutlich.

350MHz für die GPU ?
... eher nicht.

Letzteres, weil die externe Stromversogung fehlt. Wie ich oben schon schrieb, läuft die Karte bei 310MHz GPU-Takt absolut stabil und ohne Fehler... stundenlang... bei 315MHz aber schmiert die 3D-App einfach ab. Das deutet darauf hin, dass nicht die GPU das Problem ist. Und die 300MHz beim Speicher sind mit dem 3,6ns Hynix Speicher vielleicht drin (Volt-Mod), mit 6ns Speicher bei der ABIt oder der ASUS (Magic-T) sicher nicht !
:D

Allerdings bin ich der Meinung, dass OC bei der Grundleistung nur einen marginalen Vorteil bringt. So konnte ich den Takt erhöhen und ca. 20% Mehleistung heraus holen und das ohne die Temperatur der GPU zu erhöhen, schneller als 'ne 4200 wurde sie dadurch jedoch nicht...

Bis denne

Razor

Hamster
2003-05-13, 19:44:42
schade :/

hätte mich aber auch nur interessiert. die nächste karte die mir vermutlich in den rechner kommt, wird eine 5900 value sein, aber auch nur, wenn diese eine entsprechende gute leistung bringt (und oc fähigkeiten). und der preis sollte auch nicht viel über 200euro liegen, mehr gebe ich grundsätzlich für keine graka aus, da diese 2-3 mal im jahr gewechselt wird. :)

Unregistered
2003-05-14, 21:45:02
Mich würde die Performance in Morrowind interessieren, welche Einstellung hast du benutzt, wirklich spielbare Frameraten ?

Henrik
2003-05-15, 16:12:48
*staun* das ding ist ja doch nicht sooo schlecht wie ich dachte. aber meine karte bleibt doch wohl schneller oder :| ??

bushMills
2003-05-15, 23:27:14
@ razor

gutes review, wobei wenn man ehrlich ist, 100 euro sprich 200 dm!! fürs wohnzimmer bissel heftig ist, für solche zwecke reicht ne voodoo 3 oder radeon 8500 oder drunter oder derivate mit höherer zahl .o)

so die richtige überzeugung das die karte was taugt habe ich nun nicht gesehen und ich kenne keinen der sich im wohnzimmer dx9 effekte anschaut .o)

zukünftige sachen sind immer prima zum diskutieren, weil eh keiner weiss was kommt.. longhorn und 3d desktop werden die meisten eh nach 2 starts abstellen.. siehe winxp mit klickibunti .. ausser natürlich die hausfrau die ihren frisch erworbenen aldi-pc mit 4 ghz und FX5200 (hier natürlich mit 64 bit und 6 ns ram .o) nach hause schleppt und sich am langsamen bildaufbau freut, in der zeit kann man ja den monitor putzen .o)

insgesamt sehe ich die karte als rückschritt und kein schritt vorwärts, was natürlich sehr subjektiv ist, aber das sind eh die meisten sachen .o)

-für dx9 desktop eventl geeigent - dx9 spiele nicht

-tvout mag gut sein - radeon hat den billiger -- im speziellen fürs wohnzimmer

-passiv zu warm für slim/desktop-gehäuse würd ich sagen - normal also auch mit lüfter

-treiber .. herrje, kann ja die neuen nicht testen da ihr ja immer schneller seit, bin seit 41.09 bei nvidia-basierenden grakas.. vorher radeon.. also ich glaube von der seite habe ich keinen guten griff gemacht, 41.09 geht gut, mir grauts aber vor dem moment wenn ich einen neueren draufmache und dann das bild dunkel bleibt, weil ich ein spiel gekauft habe, was von nvidia nicht unbedingt unterstützt wird und ich dann feststelle, das zb. AA nichtmehr funktioniert.. aber das ist ja alles nur "mal angenommen" .o)

- ati mag zwar auch schlampen mit den bezeichnungen für die grakas, aber was mit den schon erhältlichen/zukünftigen fx5200 auf den markt gespült wird aus fernost.. sobald eine besonders günstig erscheint muss die ja schrott sein und teurere sind im gf4 bereich, die es ja nun noch gibt

so fazit: review gut, karte schlecht

meine meinung

mfg bushmills

INTRU
2003-05-16, 00:51:03
Ich finde die Karte gut. Mir gefällt, dass sie so einen grossen Passivkühlkörper hat. Ideal um einen leisen 80iger Papstlüfter draufzubauen (so wie Razor). Dann dürfte sie immer noch deutlich leiser sein (bei guten Temps) als die meisten anderen Karten. Ich denke in einem geschlossenem Gehäuse wird man dann von dem leisen Papst fast nichts mehr hören.
Die ideale Karte für einen Arbeits-PC! Gute Signalqualität, DVI, NView, leise und nicht zu teuer. Deswegen werde ich sie mir evtl. sogar kaufen (und wegen dieser leisen Kühlung wohl einer Ti4200 vorziehen). Klar - man kann auch eine Ti4200 leise bekommen - aber das kostet dann alles zusammen (Karte + Modifikation) wieder mehr. Zum Spielen habe ich zur Zeit eh kaum Zeit. Laut Razor ist der TV-Out auch gut. Den benötige ich auch ab und zu.
@Razor: Benutzt du das TvTool? Läuft das überhaupt mit der Karte? Naja - wenn der TVOut sich so sehr verbessert hat, dann dürfte sich auch das TvTool erledigt haben:D

Edit:
Ok - es gibt auch ATI Passivkarten auf denen man eine Lüfter draufknallen kann. Bei den Treibern vertraue ich aber immer noch mehr NVidia (KOMPATIBILITÄT), totz der angesprochenen Probleme von Razor.

Edit:
@Razor: Könntest du mal deinen Papst-Lüfter (ist wohl der 8412 N/2 GML) auf 7v laufen lassen und die Temps messen. Wäre auch schön, wenn du mal den Papst (12 dBa) 8412 N/2GL auf der Karte testen könntest (falls vorhanden).

Lotus
2003-05-16, 01:56:20
@ INTRU sehe ich haargenauso

wäre gut wenn hier noch andere FX5200-User Erfahrungen in punkto SQ machen könnten.

Wenn die wirklich so gut ist dann kann Matrox sich aber warm anziehen (auf die genauso teure G550 schau).

Da ich momentan eine gute Arbeits u Multimediakarte suche reizt mich die FX5200 schon sehr.

Wenn die FX5200 nicht wäre hätte ich definitiv ne G550 genommen.Das gute abschneiden der FX in allen bereichen stimmt mich allerdings deutlich zugunsten der nV-Karte um.Die G550 wirkt degegen ja recht mager und überteuert*g*.

Ich kann es immer noch net fassen das es nV endlich geschafft hat den TV-out so krass zu verbessern.

Unregistered
2003-05-17, 14:02:34
Danke für den Super Bericht!


Ich habe eine wirklich alte Graka.

Die möchte ich jetzt auch mal erneuern.

Da du eine GF3Ti200 und die neue 5200 hast würde mich deine Meinung interessieren!

Was soll ich nehmen?

MSI 8851 GF3Ti200 mit 64MB Ram, 65Euro

oder

FX5200, 128MB Ram, ~100€

Wäre dir für eine Antwort sehr dankbar! :)

Ich habe schon geschaut kann aber diese Albatron bei keinem Online Händler entdecken! Weisst du eine gute Adresse wo man diese Karte erwerben könnte? Wo hast du sie gekauft?

Razor@Work
2003-05-19, 14:16:22
Habe mich lange nicht gemeldet, also hier dann schnell ein Sammelpost aus der Firma !
:D
Originally posted by Unregistered
Mich würde die Performance in Morrowind interessieren, welche Einstellung hast du benutzt, wirklich spielbare Frameraten ?
Habe mit den gleichen Einstellungen getestet, wie auch unter der gf3. Spielbar waren die Frameraten allemal, welche Einstellungen da zugrunde lagen, kann ich aber leider nicht mehr sagen, da das Game nunmehr von der Platte gewichen ist ("GTA VC" und "Enter the Matrix" brauchten viiiiieeeelll Platz ;-).

Habe mich da auch eher auf die Kompatibiliät konzentriert, kann aber zumindest sagen, dass es nicht langsamer war, als mit der gf3.
Originally posted by _3dfx_rulez
*staun* das ding ist ja doch nicht sooo schlecht wie ich dachte. aber meine karte bleibt doch wohl schneller oder :| ??
Na ja...

Die R200 liegt ja eher auf gf3-Level und Konsorten ala R9000/9100/9200 sind auch nicht unbedingt schneller... habe aber keine Vergleichsmöglichkeit und muss hier auf die diversen Tests der FX5200 verweisen. Man sollte aber noch erwähnen, dass auch die FX5200 unter D3D mit dem neuen Deto ein ganzes Stück zugelegt hat.
Originally posted by bushMills
@ razor

<...snip...>
Deine Meinung möchte ich Dir natürlich nicht nehmen, nur teilen kann ich sie nicht.

Erst einmal sei zu der 'Wohnzimmerkarte' gesagt, dass ich mir die Karte hauptsächlich aus Interesse an der neuen Technologie zugelegt habe (wie ich ja auch ausführlich im Erfahrungsbericht schrieb). Da ich aber eigentlich andere Lesitungsklassen gewohnt bin, wollte ich der Karte aber einen zusätzlichen Einsatzzweck zukommen lassen... so sollte es also auch möglich sein, dass diese Karten dann später auch in einem WoZi-PC zum Einsatz kommen kann.

Als ich dann aber feststellte, dass diese Karte mit aktivierten Quali-Features gar schneller ist, als meine gute alte gf3@ti500-Niveau behielt ich sie im Rechner und erfreue mich seither an der fantastischen SQ, dem perfekten TV-Out und den technischen Aspekten, den diese Karte zu bieten hat.

Und da die Karte auch vollständig ohne Monitor zu betreiben ist, spricht auch absolut nichts dagegen, diese als vollwertigen PC im WoZi zu nutzen. Wozu dann natürlich auch DX9 gehört...

Und was verstehst Du unter DX9-Spielen ?
Hast Du denn da schon Vergleichsmöglichkeiten, die der Rest der Welt noch nicht hat ?

Deine Treiber-Probleme kann ich allerdings beim besten Willen nicht nachvollziehen...
Zumal selbst das MSAA-Problem mit der FX5200 nicht mehr existiert (Deto 43.45/44.03).

Aber wie schon gesagt, ich will Dir Deine Meinung nicht nehmen. Für mich war es nur wichtig mal meine doch sehr weitgehenden Erfahrungen mit dieser Karte kund zu tun.
Originally posted by INTRU
Laut Razor ist der TV-Out auch gut. Den benötige ich auch ab und zu.
@Razor: Benutzt du das TvTool? Läuft das überhaupt mit der Karte? Naja - wenn der TVOut sich so sehr verbessert hat, dann dürfte sich auch das TvTool erledigt haben:D
Jep, das TV-Tool hat sich für mich erledigt.
In den nView-Einstellungen auf 'clone' gestellt, eine Auflösung von 720x768 (wahlweise auch 768x576 nach Treibermodifiaktion ;-) für den TV-Out eingestellt und dann in den Overlay-Einstellungen das 'secondary device' als Full-Screen-Device deklariert. Funzt ganz hervorragend... so starte ich z.Bsp. mein TV-Proggi (DScaler ;-) als kleines Mini-Fenster (oben rechts im Bildschirm), welches sogleich in bester Qualität ('perfekt' ist hier wirklich nicht untertrieben, zumal ich den direkten Vergleich zum digitalen Premiere-Decoder habe) als Vollbild auf dem TV ausgegeben wird. Das funzt natürlich auch mit jeder anderen Overlay-Anwendung (WinDVD, PowerDVD oder was auch immer)... Anwendung starten, minimieren und auf dem TV im Vollbild schauen...

Sehr passender Einsatzzweck: Meine Freundin möchte sich 'ne Schnulze anschauen, die ich aber nur als DivX auf dem Rechner habe. Ich habe aber überhaupt kein Interesse daran, schmeiß also das Video an und kann mit dem Rechner weiter arbeiten...
:D

Ich kann es gar nicht oft genug sagen: "perfektes TV-Out !"
Originally posted by INTRU
@Razor: Könntest du mal deinen Papst-Lüfter (ist wohl der 8412 N/2 GML) auf 7v laufen lassen und die Temps messen. Wäre auch schön, wenn du mal den Papst (12 dBa) 8412 N/2GL auf der Karte testen könntest (falls vorhanden).
Wenn ich mal Zeit finde, kann ich das gerne mal machen.
Habe auch gerade mal bei www.oc-card.de verbei geschaut, um zu sehen, welche Lüfter ich da eigentlich habe... bin eigentlich davon ausgegangen, dass ich die 19dba-Lüfter habe (Gehäuselüfter), die werden da aber mit 2050u/min angegeben, bin mir aber eigentlich sicher, dort nur 1500u/min'er verbaut zu haben. Und einer dieser Lüfter ist nun auch auf der FX5200 zum Einsatz gekommen... hmmm... werde das nochmal checken, aber derzeit gehe ich davon aus, dass ein NGL (ohne Tachosignal) mein Kärtchen kühlt.

Auf dem Prozzi kommt auf jeden Fall ein N/2GH zum Einsatz, der via Poti auf kaum hörbare 2100u/min herunter geregelt wurde.
Originally posted by Unregistered
Da du eine GF3Ti200 und die neue 5200 hast würde mich deine Meinung interessieren!

Was soll ich nehmen?

MSI 8851 GF3Ti200 mit 64MB Ram, 65Euro

oder

FX5200, 128MB Ram, ~100€

Wäre dir für eine Antwort sehr dankbar! :)

Ich habe schon geschaut kann aber diese Albatron bei keinem Online Händler entdecken! Weisst du eine gute Adresse wo man diese Karte erwerben könnte? Wo hast du sie gekauft?
Erst einmal sollte ich sagen, dass ich keine gf3ti200 mein Eigen nenne, sondern eine ur-gf3, welche auf gf3ti500-Niveau getaktet ist (235/530).

Der Preis für die von Dir angegebene ti200 ist sicherlich OK und ob sich für dich die 50% Mehrkosten lohnen, kannst nur Du selber entscheiden. Kommt halt darauf an, worauf Du Wert legst. Wenn es Dir um reine Geschwindigkeit geht, dann wäre eine gf4ti4200 für ca. 100€ sicherlich sinnvoller, als eine gf3ti200 für 65€. Ist für Dich die Geschwindigkeit eher nebensächlich, dann kann ich nur die FX5200 ans Herz legen... mehr kann man heute nicht für sein Geld bekommen !

Meine OC'te gf3 liegt nun auf jeden Fall im Schrank, weil die Verteile der FX5200 für mich (!) auf jeden Fall überwiegen. Andere haben da aber vielleicht andere Präferenzen und würden dies dann auch anders sehen.

Die Frage sollte also lauten: gf4ti4200 (64MB) oder fx5200 (128MB) für etwa 100€ ?

Und ja, unter 'Albatron' habe ich diese Karte auch nicht finden können (habe ja auch nicht intensiv danach gesucht ;-), aber offensichtlich werden diese Karten unter dem Label "Club3D" verkauft. Bei mir war es eigentlich eher Zufdall, dass ich eine solche Karte erwischte, die zudem noch mit gutem Speicher ausgestattet war... bin eigentlich nur in die Stadt (Hamburg) gezogen und wollte "'ne FX5200" (habe aber vorher wohl so ziemlich alle verfügbaren Reviews zu dem Thema gelesen ;-).

Sorry, dass ich Dir die Entscheidnung nicht abnehmen kann, aber die gf3 ist definitiv ein Grenzfall.

---

So, das war's erst einmal.
Hoffe, dass ich es das nächste mal etwas früher schaffe, mal vorbei zu schaun und herzlichen Dank nochmal für die "Blumen".

Bis dann

Razor

INTRU
2003-05-19, 18:39:57
Originally posted by Razor@Work

Wenn ich mal Zeit finde, kann ich das gerne mal machen.
Habe auch gerade mal bei www.oc-card.de verbei geschaut, um zu sehen, welche Lüfter ich da eigentlich habe... bin eigentlich davon ausgegangen, dass ich die 19dba-Lüfter habe (Gehäuselüfter), die werden da aber mit 2050u/min angegeben, bin mir aber eigentlich sicher, dort nur 1500u/min'er verbaut zu haben. Und einer dieser Lüfter ist nun auch auf der FX5200 zum Einsatz gekommen... hmmm... werde das nochmal checken, aber derzeit gehe ich davon aus, dass ein NGL (ohne Tachosignal) mein Kärtchen kühlt.


:)

Du hast bestimmt den Papst 8412 N/2GL auf der Karte. Das ist AFAIK der leiseste Lüfter überhaupt. Bei geschlossenem Gehäuse hörst du bestimmt nichts mehr von diesem Lüfter -> 7V ist unnötig!

-> Papst 8412 N/2GL, 80 x 80 x 25 mm, 33 m³/h, 12 dBa, Sintec-Lager

Der 8412 N/2 GL ist der laufruhigste 80 mm Lüfter aus dem Hause Papst.

Der Lüfter ist insbesondere als geräuscharmer Gehäuselüfter geeignet und verfügt über ein laufruhiges Sintec-Lager. Der Anschluss kannn direkt über das Mainboard erfolgen (3 Pin-Molexstecker). Die Überwachung der Drehzahl über das Mainboard oder entsprechende Überwachungssoftware ist möglich.

Bitte beachten Sie, daß der Lüfter unterhalb von 7 Volt Spannung nicht anläuft. Bei der Verwendung als Lüfter für CPU Kühler kann das Tachosignal aufgrund der niedrigen Drehzahl über das Mainboard zum Teil nicht ausgelesen werden.

Technische Daten:
Spannung 12 V DC
Drehzahl ca. 1.500 U/min
Leistungsaufnahme 0,6 Watt
Fördermenge ca. 33 m³/h
Geräusch ca. 12 dBa
Lebensdauer (40°C) 80.000 h
Anschluss Molexstecker, 3 Pin
Länge ca. 80 mm, Breite ca. 80 mm, Höhe ca. 25 mm


Quelle: www.pc-cooling.de

883
2003-05-20, 02:00:23
Vobis hat die besprochene Karte für 99.90€. (Jedenfalls ist genau diese abgebildet!)Aber nur Mittwochs. Sonst kostet die da 111€....

http://www.denkzettel.de/seite9.php

Unregistered
2003-05-20, 07:55:35
http://web.vobis.de/is-bin/INTERSHOP.enfinity/eCS/Store/de/-/EUR/DisplayProductInformation-Short;sid=ihQYg7FU4QQYh4-dSGfB2tcwqC5sAwy0fQo=?ProductSKU=622292

die sieht wirkich so aus!!! aber ob es die wirklich ist??? und selbst wenn... ob man die auch erhält wenn man bestellt. die haben sich ja nicht festgelegt und nur fx5200 geschrieben... ich weiss nicht

Unregistered
2003-05-20, 11:07:25
http://www.preistrend.de/suchen.php3?keyword=none&kat=19588&q=9

http://www.geizhals.at/deutschland/?a=53216

http://www.geizhals.at/img/pix/53216.jpg

Razor
2003-05-20, 18:54:01
Originally posted by INTRU

:)

Du hast bestimmt den Papst 8412 N/2GL auf der Karte. Das ist AFAIK der leiseste Lüfter überhaupt. Bei geschlossenem Gehäuse hörst du bestimmt nichts mehr von diesem Lüfter -> 7V ist unnötig!

-> Papst 8412 N/2GL, 80 x 80 x 25 mm, 33 m³/h, 12 dBa, Sintec-Lager

Quelle: www.pc-cooling.de
Habe jetzt mal nachgeschaut.

Ist definitiv ein 8412 NGL (http://www.oc-card.de/pd-1785415549.htm?categoryId=85) (=N/2GL (http://www.oc-card.de/pd-188173344.htm?categoryId=85), nur ohne 3pin-Molex/Tachosignal) !
Ergo 1500u/min bei 12dba...

Soll ich die 7V-Variante noch immer testen ?
(ist 'ne rethorische Frage)
:D

Bis dann

Razor

Razor
2003-05-20, 19:01:41
Originally posted by Unregistered
http://www.preistrend.de/suchen.php3?keyword=none&kat=19588&q=9

http://www.geizhals.at/deutschland/?a=53216

http://www.geizhals.at/img/pix/53216.jpg
Ich hätte do noch folgendes anzubieten:

http://www.preistrend.de/suchen.php3?keyword=club3d+5200&pmi=&pma=&counter=0

http://www.geizhals.at/deutschland/?a=53412

Oder direkt bei Alternate:
http://www1.alternate.de/cgi-bin/go.pl?stop=1&c=AXIEYGDLKE&main=/html/nodes_info/j9gu53.html

Ich würde mir so etwas aber lieber im Laden kaufen...
So z.Bsp. bei HW Elektronik (http://www.hw-elektronik.de)... da hab' ich sie her.

Bis denne

Razor

Razor
2003-05-20, 19:08:53
Mir fiel gerade auf, dass dies wohl der einzige Thread ist, in welchem ich meinen 'Mod' noch nicht gepostet habe... was ich hiermit nachholen möchten.

Und bitte in Erinnerung behalten: Die Karte ließ sich auch ohne aktive Kühlung absolut stabil betreiben und auch übertakten.

Bis dann

Razor

P.S.: vielleicht hätte ich den Lüfter vorher sauber machen sollen *eg*

Aqualon
2003-05-20, 19:27:03
Originally posted by Razor
Mir fiel gerade auf, dass dies wohl der einzige Thread ist, in welchem ich meinen 'Mod' noch nicht gepostet habe... was ich hiermit nachholen möchten.


Soll Leonidas deinen tollen Mod vielleicht noch auf der Newsseite erwähnen? ;D ;D ;D

Razor
2003-05-20, 20:43:20
Originally posted by Aqualon

Soll Leonidas deinen tollen Mod vielleicht noch auf der Newsseite erwähnen? ;D ;D ;D
So frei nach dem Motto:
"Wie kühle ich 'ne passive Karte aktiv und verschenke gleich 2 PCI-Slots ?"
:D

Razor

bushMills
2003-05-20, 21:09:44
@razor

das es "nur" eine wohnzimmerkarte und technologiestudie von dir sein soll war mir klar, eventl habe ich mich falsch ausgedrückt, aber 100 euro für ne wohnzimmerkarte ist nicht unbedingt preiswert, meine ich, klar die relationen haben sich verschoben aber ich bin immer noch der meinung das 1 euro=1 mark ist.. also 100 dm für einen verbesserten tvout finde ich viel. (man beachte das wort: ich .o)

desweiteren finde ich es unfair das du nach dx9 spielen fragst, wiewohl es kaum dx8 spiele gibt, war diese frage einfach überflüssig und zeigt nunja .. egal.. ich erklärs dir mal:

das die karte dort einbrechen wird, liegt nicht nur an den fernostdingern die mit 6ns ram oderso auf den markt gespült werden, es ist einfach konstruktionbedingt, da dx9 spiele ja noch eine weile auf sich warten lassen und nichtmal dx8 bisher sooft verwendung fand, ergo ist eine gf3 (hab ja selber eine) eigentlich nurnoch lachhaft und diese ist/wahr ja mal schnell, wo steht sie denn heute??? und wie alt ist sie??? wo ist sie in einem jahr?? oder 2??

da die fx5200 laut deiner eigenen erfahrung ja so gf3 niveau hat, darfst du dir einen reim drauf machen und fragst das nächste mal nicht solche sachen.

deswegen schrieb ich für den desktop wirds reichen, so das ungebackene windows einen solchen wunderbaren feature-reichen desktop besitzt, was auch noch keiner weiss/besitzt, genauso wie die finale doom3 version usw..

so nun zu "meinem" treiberproblem als gf3 besitzer: habe im nv-forum abundzu eure tests gelesen, so das da alles humbug war mit splintercell umbenennen usw verbessert es in den threads, ich schrieb ja, das wenn ich den 41.09 mal updaten sollte ("...41.09 geht gut, mir grauts aber vor dem moment wenn ich einen neueren draufmache...")

so nun auf zu rally championschip, wegen diesem spiel durfte ja meine radeon gehen .o)

mfg bushmills

Razor
2003-05-20, 21:22:07
Es liegt mir fern, diese elendige DX9-Diskussion wieder auszurollen (dafür gibt's ja schon 'ne menge andere Threads), aber sei Dir einfach gewiss: ALLE derzeit erhältlichen DX9-Karten werden für 'echte' DX9-Apps zu langsam sein (vom LH-Desktop mal abgesehen, den auch eine FX5200 noch locker schaffen wird ;-). Und dafür gibt man 'ne menge mehr aus, als für die 'Kleine' hier...

Wie dem auch sei, ich hab's oben schon geschreiben und wiederhole es nochmal:
"Ich will Dir Deine Meinung nicht nehmen !"

Es geht mir hier lediglich darum, meine Erfahrungen mit dieser Karte kund zu tun. Und einem sei Dir auch gewiß... da gibt's noch 'ne Menge Leutz da draußen, die nicht einmal eine gf3 im Rechner haben.

Bis dann

Razor

bushMills
2003-05-20, 21:37:13
@ razor

jetzt hast du dir aber selber ein "kleines" bein gestellt .o)

auf einmal sagst du selber:

"..ALLE derzeit erhältlichen DX9-Karten werden für 'echte' DX9-Apps zu langsam sein (vom LH- Desktop mal abgesehen, den auch eine FX5200 noch locker schaffen wird ;-).."

und vorher fragst du mich:

"...Und was verstehst Du unter DX9-Spielen ?
Hast Du denn da schon Vergleichsmöglichkeiten, die der Rest der Welt noch nicht hat ?..."

aber nunja das sei mal dahingestellt, diese dx9 sache wollte ich nicht aufrollen, deine frage, genau obendrüber, lies mich so auschweifend werden.. also bitte ich habe damit nicht angefangen sondern nur kurz zusammengefasst was passieren wird.

macht man's so, kommt halt genau das was du schriebst, geht man ins detail lesen die leute auch bloss drüber und schreiben das gleiche, also ist es eigentlich egal .o)

du hattest nachgefragt, ich habe geantwortet und nun tust du so, als ob ich dran schuld wäre, das ist nicht fein.

insgesamt hast du nun kurz gefasst was ich oben schon feststellte und erst hast du es kritisiert???!! ... eine karte für den desktop.. kann leider also keine richtige argumentation deinerseits finden, ausser das du mir nun recht gibst.

naja wie dem auch sei, es ist schön das dir die karte gefällt.

mfg bushmills

StefanV
2003-05-20, 21:42:08
Originally posted by Razor
Es liegt mir fern, diese elendige DX9-Diskussion wieder auszurollen (dafür gibt's ja schon 'ne menge andere Threads), aber sei Dir einfach gewiss: ALLE derzeit erhältlichen DX9-Karten werden für 'echte' DX9-Apps zu langsam sein (vom LH-Desktop mal abgesehen, den auch eine FX5200 noch locker schaffen wird ;-). Und dafür gibt man 'ne menge mehr aus, als für die 'Kleine' hier...

Hm, wozu brauch ich dann 'ne FX5200/DX9??

Die brauch ich doch nur, wenn ich ein nV Fan bin und keine ATI (z.B. Rage128) oder Matrox in den Rechner lassen will, denn die Rage 128 Karten sind Ideal für einen Wohnzimmer PC, besonders da sie fast keine Abwärme haben und eigentlich garkeinen Kühler benötigen...

Nagut, die 130/130MHz Modelle z.B. von Sapphire und der fehlende Theatre Mode sind schon ein Nachteil, dafür kosten die Karten fast nichts, gebraucht bekommt man die sogar hinterhergeschmissen...

Und vom TV Out hauen die Rages auch alles außer Matrox weg...

Und wenn ich zocken will, dann hole ich mir gleich 'ne GraKa ab GF4 TI...

LovesuckZ
2003-05-20, 22:05:57
Ohman, tu nicht so als ob der Wohnzimmer PC mit ner 5200 abfackeln wuerde...
Ausserdem, wozu brauch ich nen ATi scheiß und nen überteuerten Matrox Muell, wenn ich fuer wenig Geld ne Nvidia Karte bekomme? ...
Du hast tolle Ansichten, vielleicht laesst diese aber besser im Zoo ab, wo sie niemanden interessieren bzw. suchst dir nen eigenen "Wie mache ich die 5200 schlecht: In 5 Schritten von Stefan payne" Thread.

StefanV
2003-05-20, 23:22:01
@LS

Wozu brauch ich 'nen 40 Tonner mit 1000PS, wenn mir auch ein Kleintransporter mit 3,5t (den man auch mit Klasse B fahren darf) völlig langt??

Oder was soll ich mit 'nem Golf mit 2l Maschine (115ps) in 'nem DTM Rennen??

883
2003-05-21, 00:35:12
Ist eigentlich damit zu rechnen das die FX serie, insbesondere die hier getestete 5200, noch an Speed und Performance zulegen wird mit neueren Detonator-Treibern?

LovesuckZ
2003-05-21, 07:43:39
Originally posted by 883
Ist eigentlich damit zu rechnen das die FX serie, insbesondere die hier getestete 5200, noch an Speed und Performance zulegen wird mit neueren Detonator-Treibern?

http://www.tech-report.com/etc/2003q2/detonator-fx/index.x?pg=1

LovesuckZ
2003-05-21, 07:45:51
Payne, Razor hat schon sehr oft gesagt, dass er sich die karte zu erst nur aus der technologischen Sicht besorgt hat, um erste Erfahrungen mit CineFX sammeln zu koennen. Dann kam ihm die idee, die Karte in den Wohnzimmer PC zu stecken. Ausserdem kann man mit der Karte auf den Fernsehr sehr gut zocken und allen seinen Freunden die tollen neuen Effekte zeigen.

Unregistered
2003-05-25, 23:48:44
Originally posted by Razor

So frei nach dem Motto:
"Wie kühle ich 'ne passive Karte aktiv und verschenke gleich 2 PCI-Slots ?"
:D

Razor

Wie - Du verschenkst zwei PCI-Slots???

Ich dachte bei einer solchen Konstruktion geht NUR einer drauf!!!

Den einen soll man sowieso nicht benutzen und ist total egal... aber zwei sind zuviel!!!

oder habe ich das mit den zwei nur falsch verstanden???

Razor@Work
2003-05-26, 09:05:01
Originally posted by Unregistered


Wie - Du verschenkst zwei PCI-Slots???

Ich dachte bei einer solchen Konstruktion geht NUR einer drauf!!!

Den einen soll man sowieso nicht benutzen und ist total egal... aber zwei sind zuviel!!!

oder habe ich das mit den zwei nur falsch verstanden???
Nein, das hast Du völlig richtig verstanden !
:D

Auch 'verschneke' ich keine PCI-Slots, weil ich sie derzeit 'eh nicht nutze.
Und merke: auch ohne "Razors-active-cooling"(tm) läuft das Dingelchen absolut stabil !

Razor

P.S.: Was meinst Du denn, was passiert, wenn man auf eine 'normal' gebaute GraKa einfach einen 2,5cm hohen Lüfter drauf schnallt ? Sicher hätte man auch einen 1,0-1,5cm TMD-Lüfter nehmen können, aber den silent-Papst hatte ich halt noch rum liegen...

Aqualon
2003-05-26, 15:47:14
Ich hab am Wochenende auch mal die Temperatur auf der Rückseite gemessen und trotz 10 Benchmarkdurchläufe von Murks 2001 SE und 5h Serious Sam (jeweils mit 4xAA und 8xAF) stieg die Temperatur nicht über 33° an.

Die Karte ist aktiv gekühlt und wird noch aus ca. 15-20 cm Entfernung von nem Papstlüfter angeblasen, der die Luft im Gehäuse ein wenig bewegt.

Das WinFox-Tool hat mal kurz 63° angezeigt, aber nach Schließen und Wiederöffnen warens nur noch 30°, also ziemlich sicher ein Auslesefehler.

Übertakten konnte ich die Graka nicht weiter als bis 270/215, bei 280/215 kamen Grafikfehler, aber bei 285/200 ging es einwandfrei. Hat also wohl zuwenig Saft für weitere Übertaktungen.

Aqua

P.S. Bei 125/100 lief die Karte übrigens einwandfrei mit 24°

Razor
2003-05-26, 17:16:27
Ähm...
Wie hast Du die Temp gemessen ?

Ich musste erstmal den MBM beibringen, wie er die ausgelesene Temp des Mobo's zu interpretieren hatte. So habe ich am Anfang mit 'nem digitalen Thremometer mitgemessen und daraufhin dann die Berechnung der Mobo-Temp-Anzeige angepaßt. Dann nochmals kontrolliert und gut...

Wenn Deine Zahlen aber korrekt sind: Gratulation !
:D

Razor

Aqualon
2003-05-26, 17:40:05
Hab nen Sensor von nem Digitalen Thermometer hinten auf die Grafikkarte gepappt gehabt. Der hat auch meistens das gleiche angezeigt wie die Software von Leadtek.

Und von der "Handmessung" her hab ich auch keine größere Erwärmung auf der Karte festgestellt.

Die um die 30 Grad dürften also schon hinkommen.

Aqua

Gast
2003-05-27, 00:37:46
Original geschrieben von Razor@Work
Nein, das hast Du völlig richtig verstanden !
:D

Auch 'verschneke' ich keine PCI-Slots, weil ich sie derzeit 'eh nicht nutze.
Und merke: auch ohne "Razors-active-cooling"(tm) läuft das Dingelchen absolut stabil !

Razor

P.S.: Was meinst Du denn, was passiert, wenn man auf eine 'normal' gebaute GraKa einfach einen 2,5cm hohen Lüfter drauf schnallt ? Sicher hätte man auch einen 1,0-1,5cm TMD-Lüfter nehmen können, aber den silent-Papst hatte ich halt noch rum liegen...

hoffentlich haben zukünfitge mainbaords zwischen agp-port und pci mind. 2 cm platz. dann würden die hersteller solche lösungen bestimmt auch ab werk anbieten...

da sollte man eine neue spezifikation einführen: agp von pci mind 2 cm platz und extra halterungen für kühlkörper auf dem board

Razor
2003-05-27, 14:30:15
Original geschrieben von Aqualon
Hab nen Sensor von nem Digitalen Thermometer hinten auf die Grafikkarte gepappt gehabt. Der hat auch meistens das gleiche angezeigt wie die Software von Leadtek.

Und von der "Handmessung" her hab ich auch keine größere Erwärmung auf der Karte festgestellt.

Die um die 30 Grad dürften also schon hinkommen.

Aqua
Erstaunlich...
:D

Razor

Razor
2003-05-27, 14:32:30
Original geschrieben von Gast
hoffentlich haben zukünfitge mainbaords zwischen agp-port und pci mind. 2 cm platz. dann würden die hersteller solche lösungen bestimmt auch ab werk anbieten...

da sollte man eine neue spezifikation einführen: agp von pci mind 2 cm platz und extra halterungen für kühlkörper auf dem board
2cm dürfte in etwa einem Slot entsprechen... nun ja, solche Boards gibt es ja schon.
Mal sehen, ob das Ganze Furore macht...
;-)

Bis dann

Razor

darksun
2003-06-03, 02:09:55
Original geschrieben von Stefan Payne
Hm, wozu brauch ich dann 'ne FX5200/DX9??

Die brauch ich doch nur, wenn ich ein nV Fan bin und keine ATI (z.B. Rage128) oder Matrox in den Rechner lassen will, denn die Rage 128 Karten sind Ideal für einen Wohnzimmer PC, besonders da sie fast keine Abwärme haben und eigentlich garkeinen Kühler benötigen...


:kratz2:
:abgel:

Ne Rage 128 wird in den wenigsten Fällen in Frage kommen.
Die ganzen neuen Boards brauchen ne AGP 4x fähige Graka :(
32MB Matrox G550DH 96,96 € :down:
Bin hier gerade am umbasteln und das Billigboard mag die alte Rage 128 nicht, das nur AGP 2x.
Also muss ne neue ran. Wichtig ist ein guter TV-out. An dem Rechner wird gesurft, Filme geschaut über TV und ein wenig Schreibkram.

@ Razor :respekt:
Mal sehen wieviel besser der TV-out zu meiner TI 4200 ist.
Dein Bericht war sehr hilfreich.

Celeron
2003-06-04, 16:01:55
;D

http://www.geizhals.at/deutschland/?a=53216

StefanV
2003-06-04, 16:12:24
Original geschrieben von darksun
Ne Rage 128 wird in den wenigsten Fällen in Frage kommen.
Die ganzen neuen Boards brauchen ne AGP 4x fähige Graka :(
32MB Matrox G550DH 96,96 € :down:
Bin hier gerade am umbasteln und das Billigboard mag die alte Rage 128 nicht, das nur AGP 2x.
Also muss ne neue ran. Wichtig ist ein guter TV-out. An dem Rechner wird gesurft, Filme geschaut über TV und ein wenig Schreibkram.


Dann halt 'ne Rage 128 PRO/ULTRA oder sowas...

z.B. von Sapphire (http://www.sapphiretech.com/VGA/rage1280-32mb.asp), weche ich selbst momentan im Rechner hab...

Wenns auch etwas mehr sein darf:

Für etwas mehr (5-10€) gibts Radeon 7000/VE Karten, die sollten auch brauchbar sein...

Gast
2003-06-05, 11:38:32
ich versteh nicht wieso man immer die fx5200 schelcht machen muss.

für jemanden der arbeiten, einen sehnr guten tv-out sucht, nview, dvi und ab und zu ein game zockt ist die karte ja wohl genial!!!

da gibt es KEINE alternative. alle aufgezöhlten angeblichen alternativen sind schlechter....

selbst die ati können nicht mithalten (schlechterer tv-out und nman kann nicht über fernseher (ohne monitor) booten)....

Dr@gonXP
2003-06-05, 13:03:08
Weiß jemand wie sich die FX5200/128MB gegen eine Radeon 9200/128MB schlägt?

Mfg

darksun
2003-06-05, 15:01:01
So es ist geschaft.
Da jede Cent mehr keine Zustimmung bekommen hat und die HDD die gebraucht wurde bei dem Händler sehr günstig war, hat sich der Bekannte für die ABIT Siluro FX5200 DT entschieden.
Kein geflame hab ihn nicht umstimmen können. War halt die Billigste 5200.
Hab mir mal auf die schnelle einen subjektiven Eindruck verschafft, da der Rechner mich wieder verlassen musste.
Win XP auf ECS K7S6A XP 1600+ NoName 250W NT.
Installation verlief ohne Prob's.
Einwandfreie Bildquallität bei 1024x768

Dawn läuft flüssig und Wolfenstein Enemy Territory läst sich auch noch ohne Prob's spielen.(ist aber nicht wichtig)
So am Rande: hab auch mal schnell 3DMurks 2003 Laufen lassen 923 ;D
Der Rechner steht bei einem Freund meines Sohnes im Wohnzimmer in der Ecke und muss auch als DVD Player Ersatz herhalten. Ich muss sagen das es da gar nichts zu bemängeln gibt. Einfach ein sehr sauberes klares Bild. Da ist meine TI Schrott dagegen :-(
Ja was soll ich sagen?
Nicht gerade das billigste, aber die ihr angedachten Aufgaben bewältigt sie in sehr guter Quallität.

INTRU
2003-06-05, 15:16:39
Wie ich gesehen habe gibt es die Albatron ja für ca. 75 Euro :-)

Die Abit hätte ich nicht genommen. AFAIK hat die bur 64Bit Speicheranbindung...

Celeron
2003-06-05, 19:23:58
Aber nochmal eine Frage dazu,
wieso wird immer nur bei der Albatron FX 5200 die starke wärme endwirklung erwähnt,kann das probleme geben und ist das bei allen passiv gekühlten FX 5200 genauso ?

celeron

Aqualon
2003-06-05, 20:08:46
Die Wärmeentwicklung ist bei allen Karten gleich (sofern gleicher Takt), der Unterschied besteht halt darin, dass die Kühlkörper unterschiedlich sind und deswegen auch unterschiedlich viel Wärmeenergie aufnehmen können.

StefanV
2003-06-05, 21:38:11
Original geschrieben von Gast
nman kann nicht über fernseher (ohne monitor) booten)....

WER hat dir denn den Müll erzählt??

Natürlich kann man das mit ATI Karten machen, nur bei MGAs nicht mehr...

darksun
2003-06-05, 23:01:34
Original geschrieben von INTRU
Wie ich gesehen habe gibt es die Albatron ja für ca. 75 Euro :-)

Die Abit hätte ich nicht genommen. AFAIK hat die bur 64Bit Speicheranbindung...

Wusste ich ja, dank dem Forum hier :D
Hatte das aber nicht zu entscheiden.
Für seine Zwecke ist die Karte aber auch OK.
Was die Wärme anbelangt, das Teil wird tierisch warm. Macht der aber scheinbar nix aus.

Razor@Work
2003-06-06, 15:43:45
Original geschrieben von darksun
Da jede Cent mehr keine Zustimmung bekommen hat und die HDD die gebraucht wurde bei dem Händler sehr günstig war, hat sich der Bekannte für die ABIT Siluro FX5200 DT entschieden.
Kein geflame hab ihn nicht umstimmen können. War halt die Billigste 5200.
Als kleine Ergänzung sollte man noch erwähnen, dass es sich bei besagter Karte um diejenige handelt, vor welcher Demirug schon 'warnte'. Hat eine 64-Bit-Speicheranbindung und ist somit zum 'richtigen' Spielen schon fast ungeeignet...
(na ja... ;-)

Aber klar, sonst ist sie auf jeden Fall zu gebrauchen, auch wenn ich in diesem Fall auf eine passive Kühlung geachtet hätte.

Bis denne

Razor

Razor@Work
2003-06-06, 15:46:53
Original geschrieben von darksun
@ Razor :respekt:
Mal sehen wieviel besser der TV-out zu meiner TI 4200 ist.
Dein Bericht war sehr hilfreich.
Thx...
Und der TV-out ist schlicht genial, gell ?
:D

Razor

Razor
2003-06-07, 07:39:08
Original geschrieben von Dr@gonXP
Weiß jemand wie sich die FX5200/128MB gegen eine Radeon 9200/128MB schlägt?

Mfg
Aber gerne doch...
Hier mal das, was ich auch schon im GraKa-Forum schrieb:
Hmmm...

Um den Leutz nagus und payne mal ein bissel den Wind aus den Segeln zu nehmen:
http://www.nordichardware.com/reviews/graphiccard/2003/Budget_Roundup/index.php

Die einzige Karte, die tatsächlich langsamer als die 250/200 Sapphire 9200 daher kommt,
ist die FX5200 mit 64-Bit-Speicheranbindung von ABit...
(und das bissel mehr Takt einer pro wird auch nicht viel nützen)

Und insbondere die Quali-Leistung der 9200 spottet jeder Beschreibung.
(und bei UT2003 ist sie gecrasht ;-)

Sehr interessant ist hingegen, dass selbst eine ti4200 mit aktivierten Quali-Features
von den FX5200 eingeholt und in einem Fall sogar überrundet werden kann.
(na ja, von der Pixelview, die mit 275/250 getaktet ist ;-)

That's it.

Razor

Leider nur die Standard-Benches...

Razor
2003-06-07, 07:39:41
Ups... das Bildchen fehlt...
;-)

Celeron
2003-06-07, 10:50:30
Da die Albatron FX 5200 für 75 Euro ja die normale 128 Bit-Speicheranbindung hat,
wird Sie wohl so schnell wie die anderen sein !


Celeron

Razor
2003-06-07, 19:44:27
Original geschrieben von Celeron
Da die Albatron FX 5200 für 75 Euro ja die normale 128 Bit-Speicheranbindung hat,
wird Sie wohl so schnell wie die anderen sein !

Celeron
Jup.

Standardtakt = 250/200
Pixelview = 275/250
Gainward = 260/220

Allerdings ist meine OC'te FX5200 bei 300/460 schneller, als alle, die in dem Review gezeigt wurden.
(zumindest auf meinem System nach eigener Messung ;-)

Bis denne

Razor

Celeron
2003-06-07, 20:44:25
Aber deine FX 5200 hat ja diesen komischen Lüfter,schrecklich...!


Celeron

Razor
2003-06-07, 20:59:56
Original geschrieben von Celeron
Aber deine FX 5200 hat ja diesen komischen Lüfter,schrecklich...!

Celeron
Glaub mir, im geschlossenen Gehäuse ist der nicht mehr sichtbar...
(hörbar ist er auch mit offenem Gehäuse nicht)
:D

Und wie ich schon diverseste Male schrieb, hat der aber auch rein gar keine Auswirkung auf das OC-Ergebnis !
Das sei aber nur am Rande nochmals erwähnt...

Razor

Razor
2003-06-07, 21:04:05
Habe ich das hier schon mal gezeigt ?
Sieht auch nicht gerade umwerfend schlecht aus, oder ?
:D

Celeron
2003-06-07, 23:00:38
Verliert man bei der bastelei nicht die Garantie und jeder Lüfter ist doch eine Lärmquelle !?

Nur weil die Grafikkarte etwas wärmer wird so ein umstand...:lol:

Womit haste das 'scharfe' Foto gemacht:kratz2:

Celeron

Razor
2003-06-07, 23:24:26
Original geschrieben von Celeron
Verliert man bei der bastelei nicht die Garantie und jeder Lüfter ist doch eine Lärmquelle !?
Hmmm...
Da ich den Lüfter mit 'nen bissel rotem Geschenkband 'montiert' habe, brauchst Du Dir um die Garantie sicher keine Sorgen zu machen. Auch ist ein 12dba Papst-Lüfter nicht unbedingt eine Lärmquelle. Wie ich schon schrieb, sind die Festplatten derzeit die größte Lärmquelle in meinem Rechner (Flüssigkeit-gelagerte IBM-Festplatten ;-).
Original geschrieben von Celeron
Nur weil die Grafikkarte etwas wärmer wird so ein umstand...:lol:
Jo.
Hab' halt Spaß am Basteln !
:D
Original geschrieben von Celeron
Womit haste das 'scharfe' Foto gemacht:kratz2:
Mit 'ner Digi-Camera...
Das Orginal ist 2272x1704 Pixel groß und nebenbei gestochen scharf.
In diesem Forum sind aber nur 20kB als Anhang erlaubt, so musste ich das ursprünglich 2MB große JPG (11,5MB unkompriniert) auf ein 19kB großes PNG zusammen schrumpfen lassen. Und da gehen halt ein 'paar' Details verloren...
:D

Und damit auch alle mitbekommen, welch 'großen' Aufwand ich mit der Karte getrieben habe und weil's einfach so schön ist, im Anhang nochmal der "Stein des Anstoßes".

Bis denne

Razor

INTRU
2003-06-08, 00:01:46
Die Kühlung von Razor ist ja wohl nur genial!!! Super Kühlung + leise. Was will man mehr???

(Dei 2 PCI-Slots werden die meisten verschmerzen können).

Celeron
2003-06-08, 10:59:26
Endfinde die passive Kühlung als sehr grossen Vorteil und habe eine abneigung gegenüber Lüftern...

Jeder Lüfter macht geräusche und bei der Menge heutzutage (im Netzteil,CPU,Mainboard,Gehäuse,Gafikkarte u.s.w.) sumiert sich das !

Finde es ja schon das alles mit Bildern vorgestellt wird,
aber trotz der einschänkung hier im Forum sind die Bilder von den anderen schärfer :)


Aber was Ich nochmal sagen muss finde deinen Test zur Albatron FX 5200 ausgezeichnet :respekt:


Celeron

Razor
2003-06-08, 11:11:11
Original geschrieben von Celeron
Endfinde die passive Kühlung als sehr grossen Vorteil und habe eine abneigung gegenüber Lüftern...

Jeder Lüfter macht geräusche und bei der Menge heutzutage (im Netzteil,CPU,Mainboard,Gehäuse,Gafikkarte u.s.w.) sumiert sich das !

Finde es ja schon das alles mit Bildern vorgestellt wird,
aber trotz der einschänkung hier im Forum sind die Bilder von den anderen schärfer :)


Aber was Ich nochmal sagen muss finde deinen Test zur Albatron FX 5200 ausgezeichnet :respekt:

Celeron
Ich garantiere Dir, dass Du einen einzelnen 12dba-Lüfter nur dann hören kannst, wenn Du in einem schalldichten Raum sitzt und selber keinerlei Geräuse fabrizierst (z.Bsp. athmen ;-).

Ich z.Bsp. kann bei offenem Gehäuse keinen Unterschied feststellen, ob die 3 Gehäuse-Lüfter, nebst special FX5200-razors-active-cooling-lüfter(tm) laufen, oder nicht (kann man alle abstöpseln ;-).

Insofern würde ich die Lautstärke in meinem Gehäuse in folgende Kategorien unterteilen:

unhörbar (12dba)
-> Netzteil (2xPapst)
-> Gehäuselüfter (3xPapst)
-> FX5200-razors-active-cooling-lüfter(tm) (1xPapst)

flüsterleise (ca. 20dba)
-> CPU-Kühler (1xPapst, manuell geregelt)

hörbar (??? dba)
-> Festplatten
-> DVD/CDRW-Laufwerke (wenn sie benutzt werden ;-)

Sonst finden sich keine weiteren beweglichen Teile im Rechner...
:D

Zu der Quali eines <20kB-Pics in dieser Detailfülle sag' ich jetzt einfach mal nichts.
Trotzdem danke für die Blumen !
;-)

Razor

P.S.: Vorher war das Lauteste schlicht der Lüfter meiner guten alten gf3, welcher so mit guten 30-40dba (je nach Geschwindigkeit) zugeschlagen hat...

Celeron
2003-06-08, 11:21:44
Sind die im allgemein so gut ?

Habe nur 2 Lüfter im Netzteil und CPU,
aber habe gemerkt bei den Temperaturen das Ich wohl noch notgedrungen einen Gehäuselüfter brauche mit meiner neuen Hartware !

Celeron

:laola::laola::laola:

Razor
2003-06-08, 19:20:40
Original geschrieben von Celeron
Sind die im allgemein so gut ?
Jep, sind die besten, vor allem aber die leisesten...

Bei den Gehäuselüftern:
1x rein (Front, fächert Luft direkt auf die Steckkarten)
2x raus (Rückseite, direkt über der CPU)

Netzteil (ist ein prosilentmaxx 420W):
1x raus (Rückseite)
1x rein (unten, ebenfalls über der CPU)

CPU:
Lüfter sitzt auf einem Thermalright SLK800 Kühlkörper der wohl bei bester Wärmeableitung die geringsmögliche Geräuschentwicklung (Verwirbelung des Luftstromes) und gleichzeitig die Montage unterschiedlichster und damit große, leise Lüfter (wie eben den 8cm-Papst) ermöglicht.
Original geschrieben von Celeron
Habe nur 2 Lüfter im Netzteil und CPU,
aber habe gemerkt bei den Temperaturen das Ich wohl noch notgedrungen einen Gehäuselüfter brauche mit meiner neuen Hartware !
Generell ist eine gute Gehäusedurchlüftung Pflicht, vor allem, wenn man ein Silent-System stabil und sicher betreiben möchte... schließlich läuft mein CPU-Lüfter nur mit mageren 2100 u/min.

Werde mir demnächst wohl noch ein Dämm-Matten-Set für CS601 besorgen oder gleich ein anderes Gehäuse, um die Festplattengeräusche weitestgehend los zu werden.

Bis denne

Razor

P.S.: Ein bissel OT, das Ganze... ;-)

Celeron
2003-06-09, 13:28:01
Dachte wenn Ich vorne vor den Festplattenkäfig Luft rein blase (gleichzeitig die Festplatten kühle) und hinten (evtl.dort noch ein Lüfter) durch das Netzteil die warme Luft rausbefördere reicht das oder
und haste das Netzteil selber mit den leisen Lüftern ausgerüstet ?
;D
Du bist doch ein geschickter Bastler,wieso dann wegen ein paar Festplattengeräuschen gleich das ausgezeichnete Gehäuse aufgeben ?

(Aber wird doch kein problem sein sich hier über Computertechnik auszutauschen,egal ob OT oder...)

Celeron

Celeron
2003-06-20, 10:18:59
:)

FX5200 EP = 64 bit Bus

http://www.albatron.com.tw/english/it/vga/specification.asp?pro_id=61


FX5200 E = 128 bit Bus

http://www.albatron.com.tw/english/it/vga/specification.asp?pro_id=62





Die ALBATRON FX5200 EP wird teilweise auch günstig Angeboten,
also vorsicht z.b.

http://www.norskit.de


Celeron

Razor
2003-06-21, 20:49:23
Bitte richtig schreiben:
- FX5200P (128Bit)
- FX5200EP (64Bit)

Hab 'ne FX5200P (ohne 'E' ;-)...
*puh*

Und bei norsk-it würd ich niemals was kaufen !

Razor

Celeron
2003-06-22, 23:35:22
;D

Habe auch noch nie bei norsk-it gekauft,
die sind wohl von sich überzeugt !

http://www.norskit.de/Angst.htm


Celeron

Razor
2003-06-23, 21:07:25
Jup, der war echt gut...

Besonders das hier sagt eigentlich alles:
Wir denken, das für viele Kunden der richtige Lieferant sind- für die Kunden, die Wert auf DEN BESTEN PREIS UND NICHT AUF SERVICE legen.
Ergo: Absolut KEIN Service !

Kaufen ja, aber bitte keine Reklamationen oder Nachfragen, wo denn das zugesagte Produkt bleibt (obwohl schon lange bezahlt ;-), Schwierigkeiten überhaupt mit dieser Firma Kontakt aufzunehmen etc.pp.

Sorry, aber der Laden mag zwar günstig sein, aber ich leg doch lieber eins zwei Euro drauf und bekomm dafür auch 'nen kompetenten Ansprechpartner und zumindest einen zufriedenstellenden Service... aber gar keinen ? Neee...
:D

Razor

Gast
2003-07-02, 23:27:36
hmm hab den fxf fx-5200 (128Mb)
der kuehler wird tierisch heiss (kann ihm nur 3-4 sec mit 'n finger anlangen)(auch in windows betrieb)

kann einer von euch sagen wie das kommt ? (nicht o'c)

im voraus dank

Razor
2003-07-03, 20:32:46
Original geschrieben von Gast
hmm hab den fxf fx-5200 (128Mb)
der kuehler wird tierisch heiss (kann ihm nur 3-4 sec mit 'n finger anlangen)(auch in windows betrieb)

kann einer von euch sagen wie das kommt ? (nicht o'c)

im voraus dank
Welchen Treiber benutzt Du ?
???

Der 43.45 funzt wunderbar... die 'Nachfolger' sind für das Kärtchen eher Gift, da man schon das OC-Menü aktivieren sollte, um das Kärtchen zumindest unter 2D zu 'untertakten' (50-60MHz reicht völlig aus).

Beim 44.03 läuft die Karte auch unter 2D immer am Anschlag, wenn sie nicht herunter getaktet wird (passierte beim 43.45 wohl automatisch). Beim 44.65 ist's sogar noch schlimmer, da die Karte in den 3D-Modus geht, sobald eine Overlay-Anwendung gestartet wird (TV, Video etc). Das zumindest macht der 44.03 nicht, welcher aber wiederum das Problem mit dem Overlay und dem "Secondary FullScreenDevice" hat...

Lange Rede, kurzer Sinn: der 43.45 ist der Beste, wenn man mal von der etwas schwachen 'application'-Performance absieht und die teils unschöne OGL-AF-Performance-Quali 'erträgt', dafür aber auf 'perfekte' Taktsteuerung Wert legt.

Razor

Major_Tom
2003-07-03, 22:24:29
Danke Razor
ich bin uebrigens der gleiche typ (Major Tom) vom
nVidia Grafikkarten - Forum "XFX FX5200 bleibt stehen waehrend spiel"

hab halt immer nur gelesen , war nie notwendig um mich anzumelden

oh ja , aufgrund Deines testes hab ich mir die karte geholt

Razor
2003-07-06, 11:08:39
Original geschrieben von Major_Tom
Danke Razor
ich bin uebrigens der gleiche typ (Major Tom) vom
nVidia Grafikkarten - Forum "XFX FX5200 bleibt stehen waehrend spiel"

hab halt immer nur gelesen , war nie notwendig um mich anzumelden

oh ja , aufgrund Deines testes hab ich mir die karte geholt
Hi Majer Tom und nachträglich nochmal ein herzlichen "Willkommen !"...
;-)

Hast Du denn Windows jetzt schon mal neu installiert und den RivaTuner mal von Anfang an weg gelassen ?

Da hattest Du offensichtlich ein Prob mit den OGL-Registrierungen, welches durchaus von den unterschiedlichen Treibern (ATI/nVidia) verursacht worden sein kann.

Drücke Dir mal kräftigst die Daumen, dass Du Dein neues System endlich vollumfänglich zum Laufen bekommst !

Razor

Berndes
2003-07-22, 23:25:28
Bei dem MOD wird der Lüfter wohl blasend drauf sein...


gibt es mittlerweile einen besseren treiber für die karte...


gibt es eine fx5200 die der albatron zu bevorzugen ist (passiv)

Razor
2003-07-23, 20:06:33
Original geschrieben von Berndes
Bei dem MOD wird der Lüfter wohl blasend drauf sein...

gibt es mittlerweile einen besseren treiber für die karte...

gibt es eine fx5200 die der albatron zu bevorzugen ist (passiv)
Sind das jetzt Fragen, oder Feststellungen ?
???

Wenn dies Feststellungen sind...

"Bei dem MOD wird der Lüfter wohl blasend drauf sein..."
-> Jep.

"gibt es mittlerweile einen besseren treiber für die karte..."
-> als da wäre ?

"gibt es eine fx5200 die der albatron zu bevorzugen ist (passiv)"
-> bessere Karten gibt es immer... allerdings... in welcher hinsicht ?

-

Irgendwie verstehe ich den Post nicht...
:kratz:

Razor

Heinzel22
2003-07-25, 17:00:06
Hier gibt es einen Test:
http://www.au-ja.org/review-geforcefx5x00-10.phtml

Gast
2003-08-09, 19:41:03
in der aktuellen ct' gibt es einen test!

Razor
2003-08-10, 20:57:41
Original geschrieben von Gast
in der aktuellen ct' gibt es einen test!
Sehr interessant, der Test, nicht wahr ?
:D

Razor

Gast
2003-08-11, 00:07:22
Woran kann man noch genau erkennen ob man die 128Bit Version hat?

Daten? Aufschrift?

In vielen Shops geht das nämlich nicht klar hervor?

Wo gibt es denn die 128bit Version zu einem gutem Preis (seriöser Shop)?

Gast
2003-08-11, 00:10:30
Ergänzung:

Lohnt es sich jetzt noch diese Karte zu kaufen oder wird es bald etwas besseres in diesem Preissegment geben?

Gast
2003-08-11, 00:32:43
Bezeichnung Club3D = immer 128Bit ?

MadManniMan
2003-08-11, 08:00:09
Original geschrieben von Razor
Sehr interessant, der Test, nicht wahr ?
:D

Razor

:lol:

Bestimmt sehr informativ! *hehe*

Achja, ich fahr jetz erstmal in Urlaub, also wenn du dich unbedingt mit wem zanken mußt, mußt du bis Sonntag auf wen anders ausweich0rn! :naughty:

:wink:

Razor
2003-08-12, 06:31:21
Original geschrieben von Gast
Woran kann man noch genau erkennen ob man die 128Bit Version hat?
Daten? Aufschrift?
In vielen Shops geht das nämlich nicht klar hervor?
Wo gibt es denn die 128bit Version zu einem gutem Preis (seriöser Shop)? Original geschrieben von Gast
Ergänzung:

Lohnt es sich jetzt noch diese Karte zu kaufen oder wird es bald etwas besseres in diesem Preissegment geben? Original geschrieben von Gast
Bezeichnung Club3D = immer 128Bit ?
Letztlich erkennt man eine FX5200 mit 128Bit an der Leistung (die Murkse wäre hier tatsächlich mal zu gebrauchen ;-). Ansonsten sind meist 8 Speicherchips und 128MB RAM ein guter Indikator.

Zu bekommen ist die Albatron (i.e. nahezu identisch zur Club3D) u.a. bei Com-Tra (http://www.com-tra-de) (ein äusserst seriöser Shop !). Auch die dort angebotene ABit sollte mit 128Bit daher kommen (die 64MB definitiv nicht !)...

Und da die FX5200 in diesem Preissegment über kurz oder lang die GF4MX ablösen wird, kann man davon ausgehen, dass da laaaaaaange nichts Neues mehr kommen wird.

Razor

Razor
2003-08-12, 06:33:16
Original geschrieben von MadManniMan
Achja, ich fahr jetz erstmal in Urlaub, also wenn du dich unbedingt mit wem zanken mußt, mußt du bis Sonntag auf wen anders ausweich0rn! :naughty:

:wink:
Sag mal Manni... hast Du was getrunken ?
:kratz:

Egal... ich wünsch Dir auf jeden Fall mal einen faaaaantastischen Urlaub !
Erhol Dich gut...

Razor

Matrix316
2003-08-12, 09:58:25
Ach ja, wenn jemand die 5200er mit mehr Speicher und etwas mehr Chiptakt und so sucht...;) :

Albatron 5200P:

http://www.pcstats.com/articleimages/200304/albatronfx5200p_front.jpg

Albatron 5600EQ:

http://www.albatron.com.tw/images/product/it/vga/Picture/Big/FX5600EQ.jpg

Jetzt weiß ich auch warum die EQ so klein war. ;)

RedB@ron
2003-09-26, 19:43:07
is die tv-out quali bei allen fx5200 gleich gut?
wie kann ich mir die quali vorstellen,
kenne rage128, kyro II
und mx400
die mx-quali am tv-out fand ich (mit tv-tool) wirklich überzeugend! nicht perfekt, aber echt gut.

von msi gibts ne fx5200 personal cinema (is wohl vergleichbar zu ner ati aiw), ...

mfg

Karlsson
2003-09-27, 21:07:27
:uhippie:

Gast
2003-11-18, 00:53:32
Das bei Com-tra ist eine 64Bit. Ich hatte mal nachgefragt (ist etwas länger her).

Gast
2003-11-18, 00:57:48
Bei manchen Händler steht FX5200P -> aber bei Nachfrage stellt sich heraus, dass es eine EP (64bit) ist!!!

mapel110
2004-01-30, 18:20:27
da ich keinen sinn darin sehe, einen extra thread dafür aufzumachen, hier ein kleinerer erfahrungsbericht mit meiner nigal nagel neuen

Palit Daytona GeForce 5200 Ultra

Ich hab sie bei ebay für ca 78 € plus Versand ersteigert. Ums vorweg zu sagen, recht gutes Preisleistungsverhältnis. :)

Mein erster Eindruck nach einigen Spielen "WOW. Das AF ist der Hammer"
Ich habe bislang Farcry, Mafia, Mohaa und Serious Sam 2 gespielt. Nur bei letzterem fällt mir der optische Unterschied beim AF nicht so sehr auf. Aber alle anderen Games sehen um einiges besser aus. Speziell bei Mafia hatte ich den Eindruck ein anderen Spiel zu spielen, so detailreich waren die Texturen.
Soviel zum Positiven, denn leider hat dieses superbe AF einen grossen Nachteil... das dazugehörige AA.
Die Kanten an den Polygonen fallen durch die sehr scharfen Texturflächen so stark auf, dass es für mich nicht wirklich Sinn macht, auf eine Geforce-karte zu wechseln.
Nach dieser Erfahrung kann ich aths voll und ganz verstehen, warum er AA so bevorzugt.

Genrell kann ich die 5200 Ultra durchaus als Karte für den Gelegenheitsspieler empfehlen. Farcry läuft mit vollen Details in 640er Auflösung relativ flüssig.
Bei Mafia hab ich 1280x1024 gespielt inkl 8xAF/2xAA. Das war gerade so noch flüssig mit meist 30-40 fps mit einigen slowdowns auf unter 20 fps.
Medal of Honor lief im Onlinemodus mit 2xAA/8xAF durchweg flüssig bei 1024er Auflösung, wobei man sagen muss, dass bei diesem Game durchaus 30 fps flüssig sind.
Serious Sam 2 bereitete den grössten Spass. Gleiche Settings wie Mohaa und trotzdem sehr smooth mit 50 fps und mehr.

Den TV-OUT habe ich noch nicht getestet. Das liefere ich nach. Die Signalqualität würde ich als deutlich schlechter bezeichnen als bei meiner Club3d 9800 Pro. Desktopauflösung 1280x1024 @85 hz

to be continued....
Fortsetzung
Der TV-OUT liefert imo die gleiche hohe Qualität wie bei der Radeon. Ich kann da keine Unterschiede feststellen (bis auf die Kleinigkeit, dass andere Kabel notwendig sind, gnarf (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1534641#post1534641) )

http://www.nvnews.net/reviews/palit_geforce_fx_5200_ultra/index.shtml
Hier gibts noch Bilder und ein Review der Karte.

http://www.nvnews.net/reviews/palit_geforce_fx_5200_ultra/top.jpg

Endorphine
2004-01-31, 16:06:32
Original geschrieben von mapel110
[...]
Mein erster Eindruck nach einigen Spielen "WOW. Das AF ist der Hammer"
Ich habe bislang Farcry, Mafia, Mohaa und Serious Sam 2 gespielt. Nur bei letzterem fällt mir der optische Unterschied beim AF nicht so sehr auf. Aber alle anderen Games sehen um einiges besser aus. Speziell bei Mafia hatte ich den Eindruck ein anderen Spiel zu spielen, so detailreich waren die Texturen.
Soviel zum Positiven, denn leider hat dieses superbe AF einen grossen Nachteil... das dazugehörige AA.
Die Kanten an den Polygonen fallen durch die sehr scharfen Texturflächen so stark auf, dass es für mich nicht wirklich Sinn macht, auf eine Geforce-karte zu wechseln.
Nach dieser Erfahrung kann ich aths voll und ganz verstehen, warum er AA so bevorzugt.
[...] Es kommt immer darauf an, was einem persönlich wichtiger ist - Texturen oder Polygonkanten. Wer wie ich am liebsten in 1600x1200 mit 2xAA und dafür maximalem AF spielt hat von einer GeForce derzeit mehr. Wem 2xAA und hohe Auflösungen nicht reichen sollte besser zu einer Radeon greifen.

Scheint sich ja rumgesprochen zu haben, die besagte eBay-Auktion. Aus meiner Sicht ist die Karte zu dem Preis mit das Beste, was man derzeit überhaupt an Grafikkarten bekommen kann.

L. Trotzkij
2004-01-31, 18:40:31
Die Karte ist ja ne Ultra, nicht...?
Warum hat die dann keinen eigenen Stromanschluss, haben doch alle Karten ab der 5200 Ultra??

mapel110
2004-02-01, 03:51:13
Original geschrieben von Endorphine
Es kommt immer darauf an, was einem persönlich wichtiger ist - Texturen oder Polygonkanten. Wer wie ich am liebsten in 1600x1200 mit 2xAA und dafür maximalem AF spielt hat von einer GeForce derzeit mehr. Wem 2xAA und hohe Auflösungen nicht reichen sollte besser zu einer Radeon greifen.



Man muss auch den passenden Monitor haben für 1600er Auflösung, oder eben die passenden Augen (stichwort:bildwiederholrate) ;)

Original geschrieben von L. Trotzkij
Die Karte ist ja ne Ultra, nicht...?
Warum hat die dann keinen eigenen Stromanschluss, haben doch alle Karten ab der 5200 Ultra??

Afaik haben nur die 5800 und 59x0 Geforces extra Stromanschlüsse.

p.s. weitere Infos zu der Karte liefere ich heute nach.

Endorphine
2004-02-01, 12:54:55
Original geschrieben von mapel110
Man muss auch den passenden Monitor haben für 1600er Auflösung, oder eben die passenden Augen (stichwort:bildwiederholrate) ;) Joa. Unter anderem deshalb wird auf meinem Schreibtisch auch kein TFT mit weniger als 1600x1200 physikalischer Auflösung Einzug halten. :)

Zweiter Grund: 1280x1024 hat ein "falsches" Seitenverhältnis von 1,25:1, 1600x1200 hat wenigstens 1,333:1. Ich will ein ergonomisch breites Bild, kein hohes. Ich will 4:3 Material ohne Verzerrungen und/oder Ränder darstellen können. Und ich will in Filmmaterial die Letterboxbalken nicht unnötig aufblähen. Je näher an 1,77:1, desto besser. :) Aber das nur am Rande... Original geschrieben von mapel110
Afaik haben nur die 5800 und 59x0 Geforces extra Stromanschlüsse. Die Referenzkarten haben auch bei der NV34U externe Spannungsanschlüsse: http://www.anandtech.com/video/showdoc.html?i=1797&p=3

Bei deiner Karte ist die Buchse ja auch nur nicht aufgelötet, das PCB sieht sie vor, kann man gut erkennen. =)

Gast
2004-03-12, 23:44:02
Wann soll das NVIDIA GeForce FX 5200 Nachfolge eigendlich kommen,
die NVIDIA GeForce PCX 5300 ?

gast

mapel110
2004-03-12, 23:55:06
Original geschrieben von Gast
Wann soll das NVIDIA GeForce FX 5200 Nachfolge eigendlich kommen,
die NVIDIA GeForce PCX 5300 ?

gast

http://www.3dcenter.org/artikel/2004/01-27_b.php

StefanV
2004-03-16, 21:59:26
hab heute meine FX5200 bekommen und muss ehrlich zugeben:

Bin masslos enttäuscht...

Nagut, die Karte hat zwar 'nur' einen Speichertakt von 150MHz und lässt sich auch überhauptnicht übertakten...

Die Shader der FX5200 sind einfach unterirdisch, selbst mit PS1.3 max, die der GF3 TI200 sind da schon 'etwas' stärker...

€dit:

Leistungsmäßig liegt die FX5200 auf Niveau der GF2 GTS Serie und NICHT einer GF3, nichtmal der TI200.

aths
2004-03-17, 03:29:58
Original geschrieben von Stefan Payne
Leistungsmäßig liegt die FX5200 auf Niveau der GF2 GTS Serie und NICHT einer GF3, nichtmal der TI200. Soweit ich die Benchmarks überblicke (habe jetzt leider keine Links zur Hand) etwa GF2 Pro-Niveau. Konkret, (ohne AA und AF) kann man bis 1024x768 anständig spielen, darüber wird die Luft dünn. Gegenüber der GTS Pro hat die FX 5200 natürlich einige Vorteile, z. B. MSAA, AF bis zu 8x, und DX9-Compliance.

mapel110
2004-03-17, 04:41:00
Original geschrieben von Stefan Payne
hab heute meine FX5200 bekommen und muss ehrlich zugeben:

Bin masslos enttäuscht...

Nagut, die Karte hat zwar 'nur' einen Speichertakt von 150MHz und lässt sich auch überhauptnicht übertakten...

Die Shader der FX5200 sind einfach unterirdisch, selbst mit PS1.3 max, die der GF3 TI200 sind da schon 'etwas' stärker...

€dit:

Leistungsmäßig liegt die FX5200 auf Niveau der GF2 GTS Serie und NICHT einer GF3, nichtmal der TI200.

Ist halt nen 64bit-Monster, gelle?!

Mit 128bit Interface(und halbwegs vernüftigen Speicherfrequenzen) ist die Karte jedenfalls durchaus zu gebrauchen.

StefanV
2004-03-17, 12:49:34
Original geschrieben von mapel110
Ist halt nen 64bit-Monster, gelle?!

Mit 128bit Interface(und halbwegs vernüftigen Speicherfrequenzen) ist die Karte jedenfalls durchaus zu gebrauchen.

1. nein, 128bit, DDR-SDRAM, garantiert...

2. selbst dann würd ich die FX5200 nicht unbedingt empfehlen.
Für die 65€, für die sie momentan angeboten wird (128bit Modelle), ist sie absolut nicht zu empfehlen, eine Radeon 9600SE wäre da besser...

Ehrlich gesagt: mehr als 40€ wäre so eine Karte neu nicht wert, dafür ist die Leistung einfach zu gering...

Karlsson
2004-03-21, 06:17:27
:uhippie:

Gast
2004-04-20, 11:54:06
werden günstig bei z.b. Atelco angeboten ?

http://www2.atelco.de/ai/pimg/450/1024KE.jpg

gast

Aqualon
2004-04-23, 07:04:43
Da gibt es z.B. ein Review bei http://www.hardcoreware.net/reviews/review-150-1.htm

Aqua

Razor
2005-02-05, 05:22:43
Nagut, die Karte hat zwar 'nur' einen Speichertakt von 150MHz und lässt sich auch überhauptnicht übertakten...

Die Shader der FX5200 sind einfach unterirdisch, selbst mit PS1.3 max, die der GF3 TI200 sind da schon 'etwas' stärker...

Leistungsmäßig liegt die FX5200 auf Niveau der GF2 GTS Serie und NICHT einer GF3, nichtmal der TI200.Hättest Du Dir mein Review zu Gemüte geführt, wärest auch Du vielleicht darauf gekommen, dass die FX5200 (128Bit !) es in der Rohleistung nicht mit einer gf3 aufnehmen hann... wohl aber im Qualitätsmodus. 2xAA sind eigentlich immer drin (wenn der Hersteller vernünftigen, bzw. 'normalen', bei 200MHz getakteten Speicher verbaut ;-) und 4xAF ebenso... und hierbei überflügelt die 'Kleine' die gute alte gf3 locker und kommt sehr nahe an eine gf4 (nicht mx ;-) heran.

Wie war das noch?
"Lesen macht kluch!"
:D

Ach ja... und weil ich grad die Anhänge aufgeräumt hab' (offenbar 'darf' ich nur 9,39MB und hatte schon über 10,5MB :|), hier nochmal der "semi-aktiv-mit-temp-measure-mod" meiner FX5200, die im übrigen noch immer ganz hervorragend im HTPC auf dem schon etwas betagten BX-Board ihre Runden schiebt:

http://mitglied.lycos.de/razor3dc/geforcefx/FX5200_HardCooled_640_.jpg
;D

Razor