PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - frage zu geforce 4 mx: schlechter als geforce 2 gts???


Unregistered
2002-12-13, 11:27:32
hallo

ich habe mal eine frage:

ist die gefoce4 mx nicht teilweise sogar schlechter als eine geforce 2 gts.

soweit ich weiss hat die 4mx nur 2 textureinheiten... die gts aber 4...

nur gleicht die 4mx mit höheren taktraten dass mehr als aus...

-> also 4mx sogar ein rückschritt!

ist das quatsch...???

robbitop
2002-12-13, 12:27:43
die GF2 GTS/PRO/Ultra war immer Speicherbandbreitenlimitiert und war ein reiner Bruteforcerenderer.
Die NV17 GF4 MX ist ein Fortschritt.
Sie ist kleiner produziert und taktet mit bis zu 300Mhz und sie hat Bandbreitenschonende Massnahmen LMA2 und ausserdem beherrscht sie HRAA und damit 2xRG Multisampling und ist fürs FSAA wesendlich besser geeignet (schneller und effizienter).

Sobald man mal die Aufläsung/AF/AA hochzieht sieht man den Unterschied dramatisch)

Radeonator
2002-12-13, 12:58:14
Ne mx440/460 ist kaum schlechter, da zum einen Verbessertes AA verwendet zum anderen die Clock Rates höher sind und auch 128MB DDR Ram Varianten zu bekommen sind. Es gab früher schon Vorgaben die GF2MX nicht mit 128bit DDR zu bestücken, da so der nicht all zu große Performance Unterschied sichtbar geworden wäre.

chicki
2002-12-13, 13:43:08
die gf2 mx konnte afaik auch garkein 128bit ddr ram ansteuern sondern nur 64bittiges, irrc stellte auch nur creative solche karten her, performance unterschied zu sdr war = 0
jetzt on topic ;)
zumindest die 460 variante sollte schneller sein, sie liegt im niveau um eine gf3 ti200

Quasar
2002-12-13, 13:45:54
Die MX440 liegt in den meisten Fällen im Bereich einer GF2 Ti, also doch recht deutlich über einer GTS.

Unregistered
2002-12-13, 13:50:32
aber vom aufbau her war die gts doch der mx teilweise überlegen... 4 textur vs 2 textureinheiten

zeckensack
2002-12-13, 13:56:09
Die Geforce 2 hat keine 4 Textureinheiten ...

Quasar
2002-12-13, 14:10:00
Aber doppelt soviele Pipelines. Die kommen jedoch nur in sehr sehr wenigen Situationen wirklich zum Tragen.

robbitop
2002-12-13, 20:36:31
leisst vieleicht mal jmd mein Posting??

die NV17 ist jedem NV15 überlegen...die 2Pipes weniger gleicht sie durch den Takt aus und ausserdem war der NV15 eh Speicherbandbreitenlimitiert.

NV17 hat LMA2 und HRAA was sie schon um einiges besser/schneller macht.

wären die TMUs so komplex wie bei dem NV2x wäre es ein NV25 ohne Shader. AFAIK kann sie nicht soviele AA Samples generieren.

Aber sie macht jeden NV15 platt

aths
2002-12-14, 04:51:04
Originally posted by robbitop
Aber sie macht jeden NV15 platt Im 16-Bit-Modus wäre ich mir da nicht so sicher, im 32-Bit-Modus schon.

robbitop
2002-12-14, 08:10:03
16bit schlägt eine GF2Ultra ne GF3....also völliger Kinderkram
;-)

BlackArchon
2002-12-14, 09:39:29
Originally posted by robbitop
die NV17 ist jedem NV15 überlegen...die 2Pipes weniger gleicht sie durch den Takt aus und ausserdem war der NV15 eh Speicherbandbreitenlimitiert.Bei dieser Aussage solltest du aber die GF4MX420 mit SDR-SDRAM ausklammern.

robbitop
2002-12-14, 12:59:56
es ging afair aber um die MX440....

trotzdem hast du recht...wäre ja auch kein passender Vergleich, da nicht selbe Speicherbandbreite... diese Karte muss man mit der 2MX 400 vergleichen.


(is wie nen Passat mit nem Corsa zu vergleichen)

Kennung Eins
2002-12-14, 22:22:16
Originally posted by robbitop
die GF2 GTS/PRO/Ultra war immer Speicherbandbreitenlimitiert und war ein reiner Bruteforcerenderer.
Die NV17 GF4 MX ist ein Fortschritt.
Sie ist kleiner produziert und taktet mit bis zu 300Mhz und sie hat Bandbreitenschonende Massnahmen LMA2 und ausserdem beherrscht sie HRAA und damit 2xRG Multisampling und ist fürs FSAA wesendlich besser geeignet (schneller und effizienter).Trotzdem ist der Chip (NV17) ein Bruteforcerenderer, da er von jeder Szene alle Polygone, sichtbare und nicht sichtbare, wie jede andere Grafikkarte darstellt. Kein TBR o.ä.

Pussycat
2002-12-14, 22:40:06
Stimmt nicht, sie hat ein (relativ gutes) early-z. Es ist wohl ein IMR renderer, wenn du dass meinst, aber alles zeichnen tun die auch schon lange nicht mehr. Brute-force ist daher kein guter Name.

Kennung Eins
2002-12-14, 23:16:56
Ja das ist schon klar, jedoch findet immernoch ein übermässig hoher Overdraw statt, darum seh ich das als "Brute Force" an.

Daß es kein wirklicher Brute Force renderer ist, ist schon klar, doch wenn ein NV15 ein (nach Robbitops Worten) BruteForceRenderer ist, dann ist es ein NV17 ebenso.

Pussycat
2002-12-14, 23:21:39
Nö, da die nv17 LAM2 hat und die nV15 gar nix.

Kennung Eins
2002-12-15, 00:08:33
Belassen wir es dabei :)

aths
2002-12-15, 02:14:36
Ob die MX tatsächlich mit Early Z Füllrate sparen kann, sollte erst mal ausgetestet werden. GeForce4 Ti kann das nämlich offenbar nicht. Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=44301

robbitop
2002-12-15, 21:16:51
er spart zumindist bandbreite.
Und ist in hohen auflösungen bis zu 30% schneller als jene GF2 Ti.

@Kennungeins
ich meinte es genauso wie Pussycat es gesagt hat, so unwissend bin ich nu auch wieder nich ;-)

Lotus
2002-12-15, 23:38:04
so iset

ab 1024x768@32bit ist die GF4 MX 440 der Ti in der Regel deutlich überlegen.

Murhagh
2007-08-17, 08:04:55
Tut mir wirklich Leid diesen alten Thread wieder auszugraben, aber ich habe so ziemlich die gleiche Frage, wie damals der Ersteller.

Ich habe zum Einen eine Geforce 2 Pro (http://www.msi-computer.de/produkte/graf_idx_view.php?Prod_id=160) und zum Anderen eine Geforce 4 MX44SE (http://www.prolink-usa.com/english/product/vtv-mx440-64a.html) [genaue Bezeichnung: MMVGA - NVG17GA 64MB W/TV]. Welche bringt nun ein Mehr an Leistung? Der Unterbau für die Grafikkarte ist nun auch nicht mehr das Neueste. Es werkelt ein 1,2GHz T-Bird auf einem Asus A7V-133 und 1GB SD-RAM (PC-133).

BlackArchon
2007-08-17, 08:20:55
Die beiden Karten werden sich vielleicht maximal um 20 % Leistung unterscheiden. Da du damit eh nichts aktuelles mehr spielen kannst (allein schon auf Grund der fehlenden Shader), ist es ziemlich egal, welche du nun nimmst.

Raff
2007-08-17, 08:25:28
Die beiden sind auf einem ähnlichen Niveau: http://3dcenter.de/artikel/voodoo5-6000/index8.php
Du solltest aber zur GF4 MX greifen, da sie immerhin Multisampling beherrscht.

MfG,
Raff

Murhagh
2007-08-17, 08:53:19
Vielen Dank für die Antworten. Was aktuelles will ich darauf wirklich nicht mehr spielen. Die Kiste ist nur noch für Retrosachen gut und ein paar ältere Spiele.

StefanV
2007-08-17, 09:17:30
GF4 MX -> kühler, benutzbarer TV Out...

Popeljoe
2007-08-17, 09:30:35
Mensch ein T-Bird@1,2 GHz mit 1GB Ram als Retrorechner...
Ich werde alt! ;(
Aber die Kiste sollte doch noch recht perfomant sein!!! :up:
Mit ner 8500LE oder ner GF3 könntest du sogar einige richtig nette Effekte auf den Screen zaubern! Z.B. schickes Wasser bei Morrowind! ;)
P1

Murhagh
2007-08-17, 13:52:33
Mensch ein T-Bird@1,2 GHz mit 1GB Ram als Retrorechner...
Ich werde alt! ;(
Aber die Kiste sollte doch noch recht perfomant sein!!! :up:
Mit ner 8500LE oder ner GF3 könntest du sogar einige richtig nette Effekte auf den Screen zaubern! Z.B. schickes Wasser bei Morrowind! ;)
P1


Naja, im Moment läuft da auch ein Win XP drauf. Das Teil ist einfach aus allen restlichen Komponenten entstanden, die ich noch so liegen hatte. Im Moment ist dort Stronghold und System Shock 2 drauf. Hauptsächlich für etwas ältere Spiele um meinen Haupt-PC nicht so zuzumüllen.

Ich habe einfach noch zu viele ältere aber leider kaum gespielte Spiele im Regal. Beispielsweise die beiden oben genannten Spiele: Beide habe ich nie beendet. SS2 sogar immer recht früh abgebrochen. Die Sünde muss ich nun mal aus dem Weg räumen.

Anbei ne Frage: Raff hatte in seinem Review auch das Spiel Expandable gebencht. Ich dachte das würde nur Glide unterstützen und kein Direct3D. Wenn doch, würde ich es später auch nochmal installieren.


Edit:
Kurz noch vergessen:
Habe weder eine 8500LE noch eine GF3.

PCGH_Carsten
2007-08-17, 14:45:09
Expandable unterstützt definitiv D3D - es gab sogar einen EMBM-Patch für Matrox' G400.

Murhagh
2007-08-17, 19:25:06
Expandable unterstützt definitiv D3D - es gab sogar einen EMBM-Patch für Matrox' G400.


Ok, danke! Dann werde ich das noch mal auf die Mühle draufhauen.

aths
2007-08-17, 19:26:48
hallo

ich habe mal eine frage:

ist die gefoce4 mx nicht teilweise sogar schlechter als eine geforce 2 gts.

soweit ich weiss hat die 4mx nur 2 textureinheiten... die gts aber 4...

nur gleicht die 4mx mit höheren taktraten dass mehr als aus...

-> also 4mx sogar ein rückschritt!

ist das quatsch...???Die GeForce 2 GTS hat 8 TMUs, die GeForce 4 MX nur 4 – aber man muss auch sehen, dass die GeForce 2 ihre Füllrate nur im 16-Bit-Modus ausspielen kann. Im 16-Bit-Modus ist die GF2 demnach schneller, im 32-Bit-Modus aufgrund bestimmter Architekturverbesserungen die GF4MX.

Ausnahme: GF4 MX 420 (oder 440 SE.) Dort wird nur ein 64-Bit-Interface für den Speicher genutzt, so dass die beste Architektur schlicht an der Bandbreite verhungern würde.

Murhagh
2007-08-18, 10:09:06
...Ausnahme: GF4 MX 420 (oder 440 SE.) Dort wird nur ein 64-Bit-Interface für den Speicher genutzt, so dass die beste Architektur schlicht an der Bandbreite verhungern würde.


In meinem Fall wäre es ja wahrscheinlich eine 440SE.
So wie sich eure Kommentare anhören, werde ich der Kiste wohl einfach die GF2 Pro in der Kiste lassen.

StefanV
2007-08-18, 12:02:31
Die hat 'nur' einen etwas langsameren Speichertakt, wie es scheint, in deinem Falle von 166MHz, normal wären 200MHz.

TobiWahnKenobi
2007-08-19, 09:46:49
bei der geforce2 hat mich neben dem langsamen RAM immer gestört, dass sie nur einen RAMDAC hatte. die entscheidung zwischen monitor oder TV-betrieb war total nervig und machte das tv-tool unverzichtbar.

die gf4mx konnte schon mit zwei displays umgehen ;)

was die retro-kiste angeht, so würde ich es einfach mal ausprobieren und klar das drinnen lassen, das die beste mischung aus spieleleistung und nutzbarkeit bietet.

btw.
für die GF2 habe ich neulich erst das aufsteck-VIDEO-IN-modul wiedergefunden, auf das ich seinerzeit 6 monate warten durfte..


(..)

mfg
tobi

Murhagh
2007-08-29, 11:32:20
Ich muss nun doch nochmal etwas fragen:

Die oben schon erwähnte Geforce 4 MX440SE ist ja einem "NVG17" betitelt. Laut Wikipedia ist der NV17 aber eine Geforce 4 MX440, der MX440SE dagegen ein NV18.

Im Treiber (Windows-Standard) meldet sie sich als MX440. Gibt es ein Programm, mit dem ich sicher rausbekommen kann, welche Karte bzw. welcher NVxx das nun ist?

Gast
2007-08-29, 11:45:25
ich schätze mal rivatuner ist dessen mächtig. der codename ist eh egal, wichtig ist nur das 128bit-interface (rivatuner zeigt auch das speicherinterface an)

Murhagh
2007-08-29, 12:12:11
ich schätze mal rivatuner ist dessen mächtig. der codename ist eh egal, wichtig ist nur das 128bit-interface (rivatuner zeigt auch das speicherinterface an)


Es scheint eine Geforce 4 MX440 ohne SE zu sein. Hier einmal der Report aus dem Rivatuner (gekürzt):


Display adapter information
----------------------------------------------------------------
Description : NVIDIA GeForce4 MX 440
Vendor ID : 10de (NVIDIA)
Device ID : 0171
Location : bus 1, device 0, function 0
Bus type : AGP revision 2.0
AGP status : enabled
AGP rate : 1x 2x 4x supported, 4x selected
AGP SBA : not supported
AGP FW : supported, disabled
Base address 0 : e4000000 (memory range)
Base address 1 : d0000000 (memory range)
Base address 2 : d8000000 (memory range)
Base address 3 : none
Base address 4 : none
Base address 5 : none
----------------------------------------------------------------
NVIDIA specific display adapter information
----------------------------------------------------------------
Graphics core : NV17 revision A3
Hardwired ID : 0171
Memory bus : 128-bit
Memory type : DDR (RAM configuration 0f)
Memory amount : 65536KB
Core clock : 274.500MHz
Memory clock : 202.500MHz (405.000MHz effective)
Reference clock : 27.000MHz
Maximum Fvco : 900.000MHz
Core PLL Fvco : 549.000MHz
Memory PLL Fvco : 405.000MHz



Wäre das also nun das Argument für die MX440 im Gegensatz zu GF 2 Pro?

Popeljoe
2007-08-29, 12:45:07
Wenn der Rivatuner die 128 Bit im Interface ausliest, dann wäre die MX440 die bessere Wahl.
Viel Spaß beim Spielen! ;)
P1

Ugi
2007-08-29, 12:46:51
Na in dem Log wird die eigentliche Frage, also ob deine MX440 eine 64Bit oder eine 128Bit Anbindung besitzt, ja sogar direkt beantwortet. :wink:

Also wäre es auch schnuppe wenn es eine MX440SE ist, da die Karte die du hast auf jeden Fall mit einer 128Bit breiten Anbindung arbeitet.

In diesem Fall denke ich, dürftest du mit der MX440 einen Tick besser dran sein als mit der GeForce 2 Pro.
Wobei, hatten die MX440 eigentlich SD-RAM oder (auch schon) DDR-RAM? Die GF2 Pro arbeitet ja mit DDR-RAM. Wenn deine MX440 mit SD-RAM arbeiten sollte, dürfte wiederum die 2er GeForce einen Tick schneller sein.

Ich weis gerade nur nicht mehr ob nur die GF4 MX420 SD-RAM hatte, von der ich es genau weis, sondern ob auch die MX440 und evtl. auch die MX460 'nur' über SD-RAM statt DDR-RAM verfügen.


Das beste wäre es doch aber einfach mal mit beiden Karten zwei, drei Benchmarks durchlaufen zu lassen. Dann siehst du ja was für eine der beiden Karten in deinem Retrorechner mehr Leistung bringt... :wink:


//Edit: Hat sich erledigt, habe gerade in dem Log gesehen das deine MX440 DDR-RAM besitzt.

Murhagh
2007-08-29, 12:58:16
Ok, dann dürfte die Entscheidung ja gefallen sein. Werde dann mal die MX440 weiter benutzen.

Gast
2007-08-29, 13:10:21
Wobei, hatten die MX440 eigentlich SD-RAM oder (auch schon) DDR-RAM? Die GF2 Pro arbeitet ja mit DDR-RAM.

die hatten schon DDR-RAM, und waren damit bandbreitenmäßig auch den high-end-karten garnicht so stark unterlegen.

Murhagh
2007-08-29, 13:49:23
die hatten schon DDR-RAM, und waren damit bandbreitenmäßig auch den high-end-karten garnicht so stark unterlegen.


Geht denn noch viel bei einer MX440? Sie hat keine RAM-Kühler verbaut.

Gast
2007-08-29, 14:42:20
Geht denn noch viel bei einer MX440? Sie hat keine RAM-Kühler verbaut.


probiers doch aus, woher soll ich das wissen?

RAM-kühler haben übrigens so gut wie keinen einfluss auf die mögliche übertaktung des speichers.

Raff
2007-08-29, 15:34:22
Bei der GPU geht vermutlich viel (meine macht ~340 MHz), beim RAM sicher auch mindestens zehn Prozent mehr, egal ob mit oder ohne Kühlung. Der wird nicht heiß.

MfG,
Raff

Denniss
2007-08-30, 00:28:32
Die MX440SE gibt es sowohl mit NV17 als auch mit NV18, der einzige Unterschied abseits der Speicheranbindung ist die AGP8x-Fähigkeit bem NV18.

Murhagh
2007-08-30, 09:28:58
Die MX440SE gibt es sowohl mit NV17 als auch mit NV18, der einzige Unterschied abseits der Speicheranbindung ist die AGP8x-Fähigkeit bem NV18.


Laut Angabe kann die Karte, die ich habe, "nur" AGP 4x. Macht aber nichts, weil das Board auch nicht mehr kann.

Wie weit die Karte dann geht, werde ich dann einfach mal ausprobieren.

momo88
2007-08-30, 20:38:35
Müsste eigentlich ganz gut laufen!
Ich hab in meinem Rechner noch ne GF 4 MX460
und für ältere Spiele ist die noch super!
(ich hauptsächlich CS und WC3)

Gast
2007-09-18, 20:28:10
zum oc
die mx460 und mx440-8x im Referencdesign haben 3.6ns bga Speicher(quadratische Chips) /128bit Anbindung
den kann man locker bis 600MHZ und mehr takten :)

unter hohen 32 bit Auflösungen kann ne mx460 doppelt so schnell sein
wie das langsamste Modell (mx420 128bit SDR/ 64bit DDR)
(8.8 GB gegen 2.6 GB Speicherbandbreite)

Anarchy-HWLUXX
2007-09-18, 20:47:46
Jup, die MX460 spielt in einer ganz anderen Liga, da kann man den RAM takt derartig hoch ziehen - des ist nemmer schön ;D Am Core ist es fast genauso ... hab immerhin 3 davon ;)