PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Pipes Geforce 2 <-> Geforce 4MX


catamaran
2005-04-16, 11:02:39
Hallo.
Da ich mich immer gerne um Vergleiche von Specs bemühe bin ich auf folgenden Widerspruch? gestoßen:

Geforce 4MX = 2 x 2 (Pipes/Tmu)
Geforce 2 GTS = 4 x 2


hat man den nV17 wirklich derart abgespeckt gegenüber dem nV15? Ich dachte es wäre ein weitgehend unveränderter nV15 mit ein paar zusätzlichen Neuerungen. Oder hat man einfach nen nV11 aufgebohrt? Dann wäre das Design mit 2 x 2 absolut in Ordnung.

thx

stav0815
2005-04-16, 11:21:52
Hallo.
Da ich mich immer gerne um Vergleiche von Specs bemühe bin ich auf folgenden Widerspruch? gestoßen:

Geforce 4MX = 2 x 2 (Pipes/Tmu)
Geforce 2 GTS = 4 x 2


hat man den nV17 wirklich derart abgespeckt gegenüber dem nV15? Ich dachte es wäre ein weitgehend unveränderter nV15 mit ein paar zusätzlichen Neuerungen. Oder hat man einfach nen nV11 aufgebohrt? Dann wäre das Design mit 2 x 2 absolut in Ordnung.

thx

ein NV17 is eine GeForce 2 MX (ich glaub NV12 ?) mit höheren Taktraten

Dunkeltier
2005-04-16, 12:13:34
Dem wurde aber auch noch ein stark verbesserter Speichercontroller verpaßt.

Gast
2005-04-16, 12:14:00
die geforce 4mx ist eigentlich eine komplett eigene entwicklung, und lässt sich mit anderen chips kaum vergleichen.

am ehesten ist es noch eine gf2mx mit LMA-optimierungen, FSAA aus der NV2x-serie imo eine stärkere T&L-einheit und zahlreichen kleineren verbesserungen.

stav0815
2005-04-16, 12:31:17
die geforce 4mx ist eigentlich eine komplett eigene entwicklung, und lässt sich mit anderen chips kaum vergleichen.

am ehesten ist es noch eine gf2mx mit LMA-optimierungen, FSAA aus der NV2x-serie imo eine stärkere T&L-einheit und zahlreichen kleineren verbesserungen.
haben die nicht sogar die komplette T&L Einheit vom NV20 ?

Raff
2005-04-16, 14:03:57
haben die nicht sogar die komplette T&L Einheit vom NV20 ?

Wenn ich mich recht erinnere: Nein, die GF4 MX hat keinen Vertex Shader. Aber dafür LMA der GeForce4, was sie die vorhandene Bandbreite deutlich effektiver nutzen lässt. Dazu kommt MSAA wegen der GF4-Abstammung, 2xAF ist aber weiterhin - wie bei der GF2 - das Maximum.

MfG,
Raff

Gast
2005-04-16, 14:38:13
haben die nicht sogar die komplette T&L Einheit vom NV20 ?

nein, die NV2x-chips haben keine T&L-unit mehr sondern emulieren das über die vertex-shader.

die gf4mx hatte allerdings keine vertex-shader, sondern nur FixedFunction T&L. eine gewisse programmierbarkeint dürfte die transformationseinheit dennoch haben, weshalb nvidia den treiber so programmierte dass sich die karte nach außen als VS1.1-karte meldete. der treiber schickte dann die shader-befehle wohl teilweise an die T&L-einheit, brauchte aber immer noch die cpu dafür.

zeckensack
2005-04-16, 16:27:27
Hallo.
Da ich mich immer gerne um Vergleiche von Specs bemühe bin ich auf folgenden Widerspruch? gestoßen:

Geforce 4MX = 2 x 2 (Pipes/Tmu)
Geforce 2 GTS = 4 x 2Ist richtig.
Die Geforce 4MX ist allerdings höher getaktet (275MHz bei der MX440) und effizienter.
nV17Geforce 2MX=NV17
Geforce 4MX=NV18
(war falsch, sry)

Demirug
2005-04-16, 16:48:58
NV11.0 GeForce2 MX/MX 400
NV11.1 GeForce2 MX 100/200
NV11.3 Quadro2 MXR/EX/Go
NV1A.0 GeForce2 Integrated GPU
NV15.0 GeForce2 GTS/GeForce2 Pro
NV15.1 GeForce2 Ti
NV15.2 GeForce2 Ultra
NV15.3 Quadro2 Pro
NV17.0 GeForce4 MX 460
NV17.1 GeForce4 MX 440
NV17.2 GeForce4 MX 420
NV17.3 GeForce4 MX 440-SE
NV17.8 Quadro4 550 XGL
NV17.A Quadro NVS
NV18.1 GeForce4 MX 440 with AGP8X
NV18.2 GeForce4 MX 440SE with AGP8X
NV18.3 GeForce4 MX 420 with AGP8X
NV18.5 GeForce4 MX 4000
NV18.8 Quadro4 580 XGL
NV18.A Quadro NVS with AGP8X
NV18.B Quadro4 380 XGL
NV18.C Quadro NVS 50 PCI
NV1F.0 GeForce4 MX Integrated GPU

Demirug
2005-04-16, 17:02:20
nein, die NV2x-chips haben keine T&L-unit mehr sondern emulieren das über die vertex-shader.

die gf4mx hatte allerdings keine vertex-shader, sondern nur FixedFunction T&L. eine gewisse programmierbarkeint dürfte die transformationseinheit dennoch haben, weshalb nvidia den treiber so programmierte dass sich die karte nach außen als VS1.1-karte meldete. der treiber schickte dann die shader-befehle wohl teilweise an die T&L-einheit, brauchte aber immer noch die cpu dafür.

Ja so sollte es sein (s. http://v3.espacenet.com/textdoc?DB=EPODOC&IDX=WO02101649&F=0&QPN=WO02101649) Nur leider funktioniert das nicht so ganz richtig. Aus diesem Grund ignorieren die meisten Spiele den Vertexshader einer Karte die nicht auch einen Pixelshader hat.

aths
2005-04-17, 01:33:12
die geforce 4mx ist eigentlich eine komplett eigene entwicklung, und lässt sich mit anderen chips kaum vergleichen.

am ehesten ist es noch eine gf2mx mit LMA-optimierungen, FSAA aus der NV2x-serie imo eine stärkere T&L-einheit und zahlreichen kleineren verbesserungen.FSAA ist nur teilweise á la NV25 drin, nur bis 2x MSAA. 4x AA wird mittels 2x2 OGSSAA gelöst.

hmx
2005-04-17, 02:30:03
Die GF4MX hat auch ein 128bit DDR-Interface. Die GF2MX nur 128bit SDR oder 64bit DDR.

aths
2005-04-17, 08:47:36
Die GF4MX hat auch ein 128bit DDR-Interface. Die GF2MX nur 128bit SDR oder 64bit DDR.Es gibt die GF4MX auch mit 64 Bit DDR. Entsprechend sieht es mit der Leistung (in 32 Bit) aus. Der Hauptteil des Leistungszuwachses der "richtigen" GF4MX kommt durch das verbreiterte Speicherinterface, ja.

Gast
2005-04-17, 09:16:05
FSAA ist nur teilweise á la NV25 drin, nur bis 2x MSAA. 4x AA wird mittels 2x2 OGSSAA gelöst.
IIRC nicht, nur sind die ROPs der nV17/8 stark abgespeckt, so daß "hinten" nicht mehr rauskommt. IIRC wird auch 4xAA dort per Multisampling gelöst.

Quasar
2005-04-17, 09:20:54
IIRC nicht, nur sind die ROPs der nV17/8 stark abgespeckt, so daß "hinten" nicht mehr rauskommt. IIRC wird auch 4xAA dort per Multisampling gelöst.
Das war ich... Cookie wech od. falscher Brauser.

Gast
2005-04-17, 23:50:12
warum viele leute die gf4mx so schlecht machen?!
die gf4mx460 ist zum teil schneller als eine gf3
die hat 2d qualität die nichtma die gf4ti haben...

catamaran
2005-04-17, 23:57:05
Der Chip ist nicht übel. Nur wurde sie eben nie als Highend Karte konzipiert und war zum Zeitpunkt ihres Erscheinens technisch nicht mehr zeitgemäß. Anders bei der FX 5200 - technisch alles drin, nur viel zu langsam es umzusetzen. Aber ich staune immer wieder über die Karte: Sims2 läuft ohne große Probleme damit.

Spasstiger
2005-04-17, 23:59:09
die gf4mx460 ist zum teil schneller als eine gf3

Das stimmt durchaus. Zumindest laufen Battlefield 1942 und UT2003 auch bei höheren Details auf einer GeForce 4 MX 460 flüssig.

Raff
2005-04-18, 01:31:05
Die mit ihr maximal mögliche DX7-Qualität rennt einwandfrei. Ich hab's selbst mit einer 30% übertakteten MX-440 probiert: Alle neuen Games laufen klasse in 1024x768x32, Doom³ mal ausgenommen. Als Ersatzkarte garnicht mal schlecht -- aber Pixel-Shading darstellen kann sie nunmal nicht.

MfG,
Raff

mapel110
2005-04-18, 01:40:00
Hm, früher konnte man sich offenbar im low cost 128bit DDR leisten, bei der 5200 muss man schon sehr viel Glück haben, keine 64bit zu bekommen(In Elektromärkten gibts sogut wie nichts anderes).
Tribut an die überladene Technik des Chips?!

(Also NV34 relativ teuer, deswegen muss beim PCB gespart werden?!)

Gast
2005-04-18, 12:32:35
wie man es macht man kann es nie allen rechtmachen ;)

gf4mx: ziemlich schnell, erste mainstreamkarte mit 128bit DDR-interface, aber blöderweise technisch nicht mehr ganz auf der höhe.

FX5200: technisch absolutes high-end, aber zu wenig speed.

Quasar
2005-04-18, 12:36:31
Naja,
Die MX460 war auch das Vorzeigemodell der GF4MX - üblich, besonders im Lowest-Cost Sektor waren da schon eher die GF4MX420, die sehr wohl über ein beschnittenes Speicherinterface verfügten.
Bei der FX kam erschwerend hinzu, daß die komplette FX-Reihe etwas neben das endgültige DX9 entwickelt wurde, ansonsten wär's nicht so eine Schnarchnase gewesen. Und auch bei der FX5200 gab's eine halbwegs fixe Variante, die Ultra.