PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce FX 5800 Ultra


Sentionline
2013-11-01, 09:20:39
Der seltene nVidia Fön (https://www.youtube.com/watch?v=WOVjZqC1AE4) ist nun auf eBay verfügbar.

Terratec nVidia GeForce FX 5800 Ultra (http://www.ebay.de/itm/Terratec-nVidia-GeForce-FX-5800-Ultra-AGP-8X-128MB-GDDR2-DVI-VGA-/301000295966?pt=DE_Elektronik_Computer_Computer_Graphikkarten&hash=item461504061e)

Leider ist der Preis für mich zu heftig...:frown:

downforze
2013-11-01, 09:38:49
160€, was für ein Spinner.

Sentionline
2013-11-01, 09:49:50
Nuja, kostenloser Versand :freak:

-Scud-
2013-11-01, 10:09:27
hier stand quark

Raff
2013-11-01, 10:41:29
Diese ... ääh ... Legende ist übrigens noch ein gutes Stück nervtötender als eine Radeon R9 290X im Uber-Modus. Die FX 5800 Ultra möchte man wegen des ultrafiesen Tons direkt nach dem Eintritt in den 3D-Betrieb aus dem Fenster werfen. Tut man das nicht, warten Kopfschmerzen auf ihren grausamen Einsatz. Ich wollte meine "neu" erworbene Karte vor ein paar Monaten mal ausgiebig benchen, musste aber nach einer halben Stunde heftigen Leidens aufgeben. :ugly:

MfG,
Raff

konkretor
2013-11-01, 12:35:54
Schade viel zu teuer um die Sammlung zu vervollständigen

y33H@
2013-11-01, 14:54:40
Die Terratec ist doof, das quietschgrüne Referenz-Design rockt!

StefanV
2013-11-02, 01:43:34
http://youtu.be/B91ofZz3xbU

:naughty:
Das is 'ne non Ultra mit non Ultra BIOS und Ultra Kühler.

Die Ultra ist im 2D Mode komplett still.

-Scud-
2013-11-02, 01:54:14
Das is 'ne non Ultra mit non Ultra BIOS und Ultra Kühler.

Die Ultra ist im 2D Mode komplett still.

dann lügt das internet?! :frown:

StefanV
2013-11-02, 05:21:57
dann lügt das internet?! :frown:
Ja, tut es.
Schau dir das Video an. Was fällt dir da auf?! Richtig da fehlt die Blende vorm Kühler!

Und da ich selbst mal 'ne FX5800 hatte und auch an einen Föhn FX gekommen bin, kann ich dir genau sagen, wie das war ;)
Die ollen nV30 Teile hatten 'ne richtig beschissene Lüfterregelung. Da gabs dann 'nen 2D und 'nen 3D MOde. Low und High.

Bei der FX5800 war es wirklich low und high, die hatte allerdings auch einen gewöhnlichen Radiallüfter-Kühler ähnlich der 6800er. Und auch die 5900 hatten (im Referenzdesign) solch einen Kühler.
Schaut dann das siehst du auch hier im Review, das Teil (http://www.hardwarebg.com/reviews/asus/v9900/asus-v9900td-01.html).
Das ist eine echte 5800.

NUR die Ultra hatte den FöhnFX!!

Und die beiden hatten auch unterschiedliche Lüfterregelungen. Die 5800 Vanille hatte eine low/high Steuerung, bei dem der Lüfter im 2D Mode mit verringerter Drehzahl lief. Die FX5800 ULTRA hatte eine On/Off Regelung. im 2D Modus war der Lüfter aus, im 3D Modus 'high' (müsste 12V gewesen sein).

Das schlimme ist auch, dass der Lüfter an sich gar nicht mal so laut ist. Der ganze Krach kommt vom Lufttunnel-> Vibrationen von dem Teil und Strömungsgeräusche.


Also, wie gesagt: Ich hatte eine 5800 vanilla. Und hab, als ich den Föhn FX installierte, ein Ultra BIOS drauf gespielt.


hier ist eine echte 5800 Ultra (https://www.youtube.com/watch?v=qspdnAYiiug).

Sentionline
2013-11-02, 05:41:33
SLI hätte mit den teilen wohl sehr viel spaß gemacht. :freak:

Ähnlich waren die Kühler des Radeon X850 und X1800/X19x0. Auch sehr laut, da hat die bessere Lüftersteuerung auch nicht geholfen.

john carmack
2013-11-03, 15:32:17
Wenn wir schon mal hier sind... und damit ich keinen neuen Thread öffnen muss.

Wieviel € kann ich für eine GTX570 noch verlangen?

ndrs
2013-11-03, 16:47:01
35€.
Für ne kompetentere Anwort solltest du vielleicht ins Wertanfrage-Subforum schauen.

Raff
2013-11-03, 16:50:16
hier ist eine echte 5800 Ultra (https://www.youtube.com/watch?v=qspdnAYiiug).

Wie gesagt: Instant-Kopfschmerzen. Ganz fiese Tonlage. Totale Fehlkonstruktion.

MfG,
Raff

Sentionline
2013-11-03, 17:22:38
Wieso verbaut man überhaut so kleine Lüfter? So teuer waren die damals schon nicht...

pandora
2013-11-04, 14:12:20
Ach komm sie war laut und selten damals auch nicht sie ist jetz selten weil sie so laut war das sie jeder ersetzt hat und in den müll geworfen hat selten war die 5700 ultra die ich mal hatte :)

Pirx
2013-11-04, 14:26:52
Ach komm sie war laut und selten damals auch nicht sie ist jetz selten weil sie so laut war das sie jeder ersetzt hat und in den müll geworfen hat selten war die 5700 ultra die ich mal hatte :)
Nö, die 5800 war sowieso schon als absolutes High-End gedacht und dann wollte sie auch noch kaum jemand haben. 5700 Ultra? Naaajaaaa

StefanV
2013-11-04, 14:33:21
Ach komm sie war laut und selten damals auch nicht sie ist jetz selten weil sie so laut war das sie jeder ersetzt hat und in den müll geworfen hat selten war die 5700 ultra die ich mal hatte :)
1. Satzzeichen und absätze helfen ungemein! Weil das, was du da hingewurschtelt hast, ist kaum zu lesen, ohne Punkt und Komma.

2. Die 5800 ULTRA war einfach lahm, wei ATi nVidia mit der Breite überrascht hat. ATi hat einfach mal 'nen 'Big Die' abgeliefert, der gleich mal ~doppelt so breit war, wie die FX5800. Entsprechend lahm war sie auch - und der eigentliche Gegner die 9600 PRO. Wenn man das im Hinterkopf behält, schlägt sich die FX halbwegs gut. Blöderweise ist die ATI R300 damals aber doppelt so breit gewesen und hatte auch noch ein doppelt so breites Speicherinterface (war die zweite Consumer Karte mit 256bit SI bzw die erste breit verfügbare, wenn man die Paellia nicht dazu zählen möchte).

Kurz: P/L war einfach unterirdisch...

Dazu kommt noch das 'Pipelineproblem' der nV3x, 4x und G70 Serien. Kurz: Alus + TMUs waren seriell, behindern sich z.T. gegenseitig. Bei ATi seit R300 entkoppelt. Wobei dem R300 nachgesagt wird, sehr viel vom R200 mitgenommen zu haben...

robbitop
2013-11-04, 14:34:56
Bis auf die NV1 und irgendwelche ES Boards ist sowieso keine NV Karte selten. Die sind alle in Massen gefertigt worden.



2. Die 5800 ULTRA war einfach lahm, wei ATi nVidia mit der Breite überrascht hat. ATi hat einfach mal 'nen 'Big Die' abgeliefert, der gleich mal ~doppelt so breit war, wie die FX5800. Entsprechend lahm war sie auch - und der eigentliche Gegner die 9600 PRO. Wenn man das im Hinterkopf behält, schlägt sich die FX halbwegs gut. Blöderweise ist die ATI R300 damals aber doppelt so breit gewesen und hatte auch noch ein doppelt so breites Speicherinterface (war die zweite Consumer Karte mit 256bit SI bzw die erste breit verfügbare, wenn man die Paellia nicht dazu zählen möchte).

Kurz: P/L war einfach unterirdisch...

Das Hauptproblem war nicht die "Breite". Bei Multi Texturing (oder >=Trilinearer Filterung) hatte man bei beiden Karten pro Takt die gleiche Füllrate. Problematischer waren die typischen CineFX Schwächen. Registerknappheit, Stallende Pipelines (TEX:ALU nicht entkoppelt), FP-Leistung -zumindest NV30 hatte nur bei INT12 volle Shaderleistung (4x FP16 MAD ALUs und 4 INT12 ALUs). Und die ALUs beherschten noch kein Co-Issue. FP32 hat nochmal die Leistung halbiert. Dummerweise forderte DX9 mindestens FP24. Ergo war ab DX9 nicht mehr viel zu retten. NV35 ersetzte immerhin die INT12 ALU gegen eine FP16 ALU und brachte ein 256 bit SI. Bei entsprechenden Spielen gab es hin und wieder mal Renderpfade mit FP16. Dann war es ganz annehmbar. Spätestens als die Arithmetiklast zunahm war für CineFX (inkl NV40, G70) nichts mehr zu holen.

Ohne große ALU Last (also DX8) war NV30 und NV35 absolut konkurrenzfähig zu R3xx. Teilweise IIRC sogar schneller (was dem hohen Takt geschuldet war).

NV30 war irgendwie ein großer Kompromiss. In DX8 sehr schnell und sehr sehr flexible ALUs. Hätte IIRC fast für SM3 ausgereicht. Aber am Ende reichte das Transistorbudget nicht, um sie für die Anforderungen von DX9 schnell genug zu machen. Vieles wurde beim NV40 ausgemerzt - aber nicht die fehlende TEX:ALU Entkopplung.
R300 war hingegen von Anfang an sehr gut balanciert. Man lieferte nur das was die DX9 Spec wollte aber dafür ein ausgewogenes Design.

Raff
2013-11-04, 14:36:05
1. Satzzeichen und absätze helfen ungemein! Weil das, was du da hingewurschtelt hast, ist kaum zu lesen, ohne Punkt und Komma.

2. Die 5800 ULTRA war einfach lahm, wei ATi nVidia mit der Breite überrascht hat. ATi hat einfach mal 'nen 'Big Die' abgeliefert, der gleich mal ~doppelt so breit war, wie die FX5800. Entsprechend lahm war sie auch - und der eigentliche Gegner die 9600 PRO. Wenn man das im Hinterkopf behält, schlägt sich die FX halbwegs gut. Blöderweise ist die ATI R300 damals aber doppelt so breit gewesen und hatte auch noch ein doppelt so breites Speicherinterface (war die zweite Consumer Karte mit 256bit SI bzw die erste breit verfügbare, wenn man die Paellia nicht dazu zählen möchte).

Kurz: P/L war einfach unterirdisch...

Jetzt übertreibst du, Stefan. Die 5800 Ultra ist dank des hohen Kerntakts in DX7 und DX8 nicht schlecht, sie suckt "nur" heftig, wenn DX9-Shader zum Einsatz kommen. Im Vergleich mit einer Radeon 9700 Pro hat sie auch mit 4x MSAA das Nachsehen (enges Speicherinterface), aber da sie nur 4x OGMSAA beherrscht, ist hier eh 2x (RGMS) der beste Modus.

MfG,
Raff

robbitop
2013-11-04, 14:47:58
Nicht nur das enge Speicherinterface führte beim NV30 zu größeren Einbrüchen bei 4xMSAA. NV30 beherrschte IIRC noch keine Color Compression. Und genau das bringt bei MSAA schon einiges.

Sentionline
2013-11-04, 22:34:11
Ich hätte sie gerne gekauft. Weil Doom 3 zum Erscheinungstermin kam. Was mich von Win98 weg gezwungen hat. Hab dann extra für Doom 3 eine FX 5900 XT von PNY kaufen müssen und auf XP umgerüstet. Die 5800 war einfach unbezahlbar...

160€ sind für mich aber zuviel des guten. Krieg ich ja ne GTX480 im SLI für...

Schade...

robbitop
2013-11-05, 09:19:26
Doom 3 kam nicht zum Erscheinungstermin vom NV30. Eher fast 1 Jahr später (als es NV35 und R380 schon gab).

seaFs
2013-11-05, 10:40:01
Jetzt für nur 130 Tacken (http://www.ebay.de/itm/Terratec-nVidia-GeForce-FX-5800-Ultra-AGP-8X-128MB-GDDR2-DVI-VGA-/301008786202?pt=DE_Elektronik_Computer_Computer_Graphikkarten&hash=item461585931a)