PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kann GF 4MX Pixel und Vertex Shader ?


BigBrainbug
2003-07-09, 13:51:06
können GF 4 MX Karten Pixel und Vertex Shader?
Welche sind besser die 128 MB oder die 64 MB Karten?

Gruß

Robert

Sir Integral Wingate Hellsing
2003-07-09, 13:53:35
Original geschrieben von BigBrainbug
können GF 4 MX Karten Pixel und Vertex Shader?
Welche sind besser die 128 MB oder die 64 MB Karten?

Gruß

Robert

1. Nein und Nein
2. Wenn, dann reicht eine 64MB-Karte (128MB nutzt die Karte eh nie aus)

Empfehlung: R9000/R9100/R9200 oder ne GF FX 5200

Ne GF 4 MX ist nicht mehr empfehlenswert (nur DX7).

ShadowXX
2003-07-09, 13:55:22
das war die nette kleine Käuferirritation die nv mit in Ihr GraKa-Programm aufgenommen hat.
Die GF4MX ist einer Geforce2 näher als einer GF3...

Nimm eine 5200fx oder R9000/R9100/R9200.....

J.S.Shadow

Sir Integral Wingate Hellsing
2003-07-09, 13:56:00
Original geschrieben von ShadowXX
das war die nette kleine Käuferirritation die nv mit in Ihr GraKa-Programm aufgenommen hat.
Die GF4MX ist einer Geforce2 näher als einer GF3...

Nimm eine 5200fx oder R9000/R9100/R9200.....

J.S.Shadow

LoL :)

2 Ärsche, 1 Gedanke :D

Gast
2003-07-09, 13:57:45
Original geschrieben von BigBrainbug
können GF 4 MX Karten Pixel und Vertex Shader?
Welche sind besser die 128 MB oder die 64 MB Karten?

Gruß

Robert


Nein und Ja.
Ist egal ob 64 oder 128MB.

BigBrainbug
2003-07-09, 13:59:14
Logisch dfas die vertex shafder kann konnte die 2 mx er ja auch. obwohl das bei nvidia keine garantie ist.

Sir Integral Wingate Hellsing
2003-07-09, 14:01:06
Original geschrieben von Gast
Nein und Ja.
Ist egal ob 64 oder 128MB.

Falsch!

Die Karte kann weder Vertex-, noch Pixelshader, aber der Vertexshader kann via Treiber (CPU-Last!) emuliert werden.

Und die Speichergrösse ist nicht egal, es sei denn, die 64er und 128er Variante unterscheiden sich nicht im Preis.

Allerdings: Ich rate von einer GF 4 MX ab!

Sir Integral Wingate Hellsing
2003-07-09, 14:01:54
Original geschrieben von BigBrainbug
Logisch dfas die vertex shafder kann konnte die 2 mx er ja auch. obwohl das bei nvidia keine garantie ist.

Sinnlos Posting?

"Die Karte kann weder Vertex-, noch Pixelshader, aber der Vertexshader kann via Treiber (CPU-Last!) emuliert werden."

Gilt auch für die GF 2 MX ... :stareup:

Gast
2003-07-09, 14:42:17
Original geschrieben von Sir Integral Wingate Hellsing
Falsch!

Die Karte kann weder Vertex-, noch Pixelshader, aber der Vertexshader kann via Treiber (CPU-Last!) emuliert werden.

Und die Speichergrösse ist nicht egal, es sei denn, die 64er und 128er Variante unterscheiden sich nicht im Preis.

Allerdings: Ich rate von einer GF 4 MX ab!

Laber nicht dumm.

Die GF4MX meldet VS1.1 HW Support im Treiber, das tut eine GF2 z.B. nicht.

Demirug
2003-07-09, 14:54:22
Jaja die Vertexshader der GF4MX. Eine Geschichte voller Missverständnisse.

Eine GF4MX hat einen Hardware Vertexshader Support. Allerdings keine vollständigen. Soll heisen das ein Vertexshader vom Treiber in zwei Teile zerlegt wird von denen einer von der CPU und der andere von der GPU berechnet wird. Im besten Fall geht alles auf der GPU im schlechtesten Fall muss alles die CPU machen.

Gast
2003-07-09, 15:05:03
Original geschrieben von Demirug
Jaja die Vertexshader der GF4MX. Eine Geschichte voller Missverständnisse.

Eine GF4MX hat einen Hardware Vertexshader Support. Allerdings keine vollständigen. Soll heisen das ein Vertexshader vom Treiber in zwei Teile zerlegt wird von denen einer von der CPU und der andere von der GPU berechnet wird. Im besten Fall geht alles auf der GPU im schlechtesten Fall muss alles die CPU machen.

Und genau das ist der Unterschied zur GF2, die eben keinen VS1.1 per DXCaps bits meldet.
Also nix mit "Gilt auch für die GF 2 MX ... "

ShadowXX
2003-07-09, 15:09:23
...so extrem ist der unterschied zwischen den beiden mx'en nicht...
nicht mal nv wirbt mit (den halben)Vertexshadern...
(http://www.nvidia.com/view.asp?PAGE=geforce4mx)

Ist nix von "nfiniteFX II Engine" bzw. wenigstens "nfiniteFX I Engine"
die Rede..(und diese Implementieren die Vertex/Pixelshader).

Ist wohl auch für nv eine Vertexshaderlose Karte...

J.S.Shadow

Sir Integral Wingate Hellsing
2003-07-09, 15:09:32
Original geschrieben von Gast
Und genau das ist der Unterschied zur GF2, die eben keinen VS1.1 per DXCaps bits meldet.
Also nix mit "Gilt auch für die GF 2 MX ... "

Bei der Performance kommts aufs selbe raus...
Und beherrsche Dich lieber Unreg!
Beleidigungen werden hier nicht geduldet!

Sir Integral Wingate Hellsing
2003-07-09, 15:10:02
Original geschrieben von ShadowXX
...so extrem ist der unterschied zwischen den beiden mx'en nicht...
nicht mal nv wirbt mit (den halben)Vertexshadern...
(http://www.nvidia.com/view.asp?PAGE=geforce4mx)

Ist nix von "nfiniteFX II Engine" bzw. wenigstens "nfiniteFX I Engine"
die Rede..(und diese Implementieren die Vertex/Pixelshader).

Ist wohl auch für nv eine Vertexshaderlose Karte...

J.S.Shadow

Full Ack!

ow
2003-07-09, 18:26:11
Original geschrieben von Sir Integral Wingate Hellsing
Bei der Performance kommts aufs selbe raus...
Und beherrsche Dich lieber Unreg!
Beleidigungen werden hier nicht geduldet!


Du hast doch sicher gelesen, was demirug dazu geschrieben hat oder ist dir das nicht verständlich??

Es kommt garantiert NICHT auf dasselbe heraus, sonst hätte man der GF2 auch diesen VS1.1 spendiert.

ow
2003-07-09, 18:29:25
Original geschrieben von ShadowXX
...so extrem ist der unterschied zwischen den beiden mx'en nicht...
nicht mal nv wirbt mit (den halben)Vertexshadern...
(http://www.nvidia.com/view.asp?PAGE=geforce4mx)

Ist nix von "nfiniteFX II Engine" bzw. wenigstens "nfiniteFX I Engine"
die Rede..(und diese Implementieren die Vertex/Pixelshader).

Ist wohl auch für nv eine Vertexshaderlose Karte...

J.S.Shadow

nFiniteFX ist eine Marketingbegriff und sonst NICHTS.

Die GF4MX meldet HW-VS Unterstützung und jede Applikation kann diesen VS nutzen. Das ist ein grosser Unterschied zu einer GF2, bei der eine App. nur den MS SW-VS nutzen kann.

Thowe
2003-07-09, 20:09:23
Original geschrieben von ow
nFiniteFX ist eine Marketingbegriff und sonst NICHTS.

Die GF4MX meldet HW-VS Unterstützung und jede Applikation kann diesen VS nutzen. Das ist ein grosser Unterschied zu einer GF2, bei der eine App. nur den MS SW-VS nutzen kann.

Was der Karte untern Strich aber auch nichts hilft, sie ist und bleibt es klasse 2D Karte mit 3D Eigenschaften die ein ambitionierter Spieler nicht als ausreichend empfinden wird. Die Karte hat bei der nun herrschende Konkurrenz keine Daseinsberechtigung mehr, ausser als reine 2D Lösung vielleicht.

LovesuckZ
2003-07-09, 20:26:58
Original geschrieben von Thowe
Die Karte hat bei der nun herrschende Konkurrenz keine Daseinsberechtigung mehr, ausser als reine 2D Lösung vielleicht.

Aus welcher Betrachtungsweise?
Die "nun herrschende Konkurrenz" ist in Spielen kaum schneller, erst die deutlich teuren Vertreter (9000pro, 5200) koennen sich von der normalen GF4MX absetzen. Die 9000 ist keine wirklich bessere Karte, außer man moechte schoene DX8 Demos sich angucken. Und ne 9100 ist dank den besonderen Treibersupport eher nicht zu empfehlen...

ow
2003-07-09, 20:29:31
Original geschrieben von Thowe
Was der Karte untern Strich aber auch nichts hilft, sie ist und bleibt es klasse 2D Karte mit 3D Eigenschaften die ein ambitionierter Spieler nicht als ausreichend empfinden wird. Die Karte hat bei der nun herrschende Konkurrenz keine Daseinsberechtigung mehr, ausser als reine 2D Lösung vielleicht.


leider am topic vorbei;);)

es ging ja nur um die Frage, welche Shader die 4MX beherrscht. PS definitv nicht, VS definitiv ja (wenn auch mit teilweiser CPU-Unterstützung).

Demirug
2003-07-09, 20:38:11
Dürfte zwar keinen mehr wirklich interesieren aber hier findet man das Patent welches die Technik des GF4MX VS beschreibt:

http://l2.espacenet.com/espacenet/viewer?PN=WO02101649&CY=gb&LG=en&DB=EPD

Thowe
2003-07-09, 20:54:20
Original geschrieben von ow
leider am topic vorbei;);)

...

Klar ist es das, wollte aber nach Monaten mal wieder was im GC Forum posten, bin ja nur zufällig gerade hier. :)

Thowe
2003-07-09, 20:56:08
Original geschrieben von LovesuckZ
Aus welcher Betrachtungsweise?
Die "nun herrschende Konkurrenz" ist in Spielen kaum schneller, erst die deutlich teuren Vertreter (9000pro, 5200) koennen sich von der ...

Schau mal bei Preistrend, die deutlich teuren Vertreter kosten 10,- Euro mehr. Ich kenne Leute der verqualmen am Tag mehr Geld.

StefanV
2003-07-09, 21:12:22
Original geschrieben von LovesuckZ
Aus welcher Betrachtungsweise?
Die "nun herrschende Konkurrenz" ist in Spielen kaum schneller, erst die deutlich teuren Vertreter (9000pro, 5200) koennen sich von der normalen GF4MX absetzen. Die 9000 ist keine wirklich bessere Karte, außer man moechte schoene DX8 Demos sich angucken. Und ne 9100 ist dank den besonderen Treibersupport eher nicht zu empfehlen...

:schlag:

Oh mann...

Wie Thowe schon sagte, taugt die GF4 MX nur noch als Office Karte...
Außerdem hat er VÖLLIG recht damit, dass er gesagt hat, daß eine DX7 Karte nicht mehr Zeigtemäß ist, da es JETZT schon genügend Spiele gibt, in denen man echte DX8 Effekte bestaunen darf...

Der Rest zur 9000 bzw 9100 ist auch nonsense, besonders der Teil mit der 9100...

Natürlich wird ATI sich mit dem Erscheinen von neuen Karten auf die neuen konzentrieren, aber werden sie die Treiber für die alten einstellen??

Ich denke eher nicht, zumindest ändern sich einige Dinge selbst bei 8500 KArten, selbst hin und wieder mal bei den alten 7000ern, wovon ich momentan 2 Stück besitze und eine meinen Office Rechner ziert...

Und soo viel sind 10€ auch nicht...
Mal auf ein paar Eis, 'ne Tüte Süßigkeiten sowie hier und da mal das eine oder andere, das man nicht wirklich braucht...
10€ sind sehr schnell zusammen, bzw weg...

LovesuckZ
2003-07-09, 21:25:49
Original geschrieben von Thowe
Schau mal bei Preistrend, die deutlich teuren Vertreter kosten 10,- Euro mehr. Ich kenne Leute der verqualmen am Tag mehr Geld.

GF4MX - 37€ (http://www.csv-direct.de/netforge/netengine?tmpl=out_index&artikel=A0606088)
Radeon 9000 - 58€ (http://www4.primustronix.de/shop/info.asp?product_group=185&service_group=&fct=&product_code=GRA522&search_str=&sid=4316127955)
Radeon 9000 pro - 70€ (http://www.funcomputer.de/default.php?page=shop&artnr=08909&PHPSESSID=8e93fbbcb1443537148f30eba3ff1a3a)
5200 128BIT - 75€ (http://www.computeruniverse.net/products/90069608.asp?agent=289)

Ich sehe hier keine 10€ unterschied bei den jeweils billigsten verfuegbaren Karten...

LovesuckZ
2003-07-09, 21:36:41
Original geschrieben von Stefan Payne
:schlag:

Wie Thowe schon sagte, taugt die GF4 MX nur noch als Office Karte...
Außerdem hat er VÖLLIG recht damit, dass er gesagt hat, daß eine DX7 Karte nicht mehr Zeigtemäß ist, da es JETZT schon genügend Spiele gibt, in denen man echte DX8 Effekte bestaunen darf...

Totschlagargument: Die an einem in Zeitlupe vorbeilaufen, weil die 9000 nicht schnell genug ist...

Der Rest zur 9000 bzw 9100 ist auch nonsense, besonders der Teil mit der 9100...

Stimmt, wenn der OpenGL Teil einfach mal fehlt im neusten Treiber, dann ist dies ein gutes Zeichen für die Zukunft...

Thowe
2003-07-09, 21:39:22
Original geschrieben von LovesuckZ
...

Ich sehe hier keine 10€ unterschied bei den jeweils billigsten verfuegbaren Karten...

Einfach beim gleichen Hersteller und Ausstattung bleiben.

StefanV
2003-07-09, 23:22:09
Original geschrieben von LovesuckZ

Totschlagargument: Die an einem in Zeitlupe vorbeilaufen, weil die 9000 nicht schnell genug ist...


Hm, irgendwie erinnerst du mich jetzt gerade an ein Fähnchen im Winde...
Bist du nicht eigentlich einer derjenigen, die DX9 bei der FX5200 so toll finden?? hm :grübel:

Nur vergisst du den Unterschied, daß DX9 irgendwann mal genutzt wird, während DX8 JETZT genutzt wird...

Und für Spielchen in 1024x768 bei 32bit ohne FSAA ist die RV250 immer noch ausreichend...

Aber wir können hier ja nicht von 4x FSAA und 8xAF reden, da das ja den High End Modellen vorbehalten ist...

Original geschrieben von LovesuckZ
Stimmt, wenn der OpenGL Teil einfach mal fehlt im neusten Treiber, dann ist dies ein gutes Zeichen für die Zukunft...

:schlag:

Noch so ein Totschlagargument...

Nur solltest du auch nicht vergessen, daß ATI auch mal was vergessen kann...

Außerdem hat ATI ja einen gefixten Treiber recht schnell nachgereicht, als man gemerkt hat, daß da was fehlte...

Asuka
2003-07-10, 01:03:02
Original geschrieben von LovesuckZ
GF4MX - 37€ (http://www.csv-direct.de/netforge/netengine?tmpl=out_index&artikel=A0606088)
Radeon 9000 - 58€ (http://www4.primustronix.de/shop/info.asp?product_group=185&service_group=&fct=&product_code=GRA522&search_str=&sid=4316127955)
Radeon 9000 pro - 70€ (http://www.funcomputer.de/default.php?page=shop&artnr=08909&PHPSESSID=8e93fbbcb1443537148f30eba3ff1a3a)
5200 128BIT - 75€ (http://www.computeruniverse.net/products/90069608.asp?agent=289)

Ich sehe hier keine 10€ unterschied bei den jeweils billigsten verfuegbaren Karten... Dü würdest einen sehen bei einer echtenGF4MX - die von dir genannte Karte ist eine GF4MX SE Karte, die durch ultra-lahmen 64Bit-Bus nochmal ein gutes Stück langsamer ist :kotz:
Soviel zum Thema "Wie macht man eine sch... Karte noch schlechter".

BigBrainbug
2003-07-10, 07:24:46
Ich besitzte seit gestern Abend ein Aopen GF 4 Ti 4200 und bin ganz zufrieden daher hat sich diese diskussion für mich erledigt.

Nachtrag: Ich habe in meinem 2. PC eine GF 2 MX-400 diese ist mit einem 40er Lüfter aktif gekühlt. Kann ich diese Karte passiv kühlen. Welche Kühler ist zu empfehlen?

Danke euch

Gruß

Robert

Quasar
2003-07-10, 08:48:05
Original geschrieben von Stefan Payne
Nur vergisst du den Unterschied, daß DX9 irgendwann mal genutzt wird, während DX8 JETZT genutzt wird...

Dieses hat dich damals vom fröhlichem GF4MX-Bashing auch nicht abgehalten...

Original geschrieben von Stefan Payne
Hm, irgendwie erinnerst du mich jetzt gerade an ein Fähnchen im Winde.

seahawk
2003-07-10, 08:58:54
Ne GF4MX ist imo heute sinnlos.

Am besten ne Radeon, 9000,9100 oder 9200.

Sonst ne FX5200 oder wenn es zum Zocken sein soll ne Geforce 4 ti 4200.

Frank
2003-07-10, 12:37:30
Original geschrieben von Quasar
Dieses hat dich damals vom fröhlichem GF4MX-Bashing auch nicht abgehalten...
&
Original geschrieben von Threadstarter
Ich besitzte seit gestern Abend ein Aopen GF 4 Ti 4200 und bin ganz zufrieden daher hat sich diese diskussion für mich erledigt.

Weswegen der Thread jetzt geschlossen wird. Für GF4MX Flames & Co sind entsprechende Uraltthreads rauszugraben falls da Bedarf besteht.


Original geschrieben von Threadstarter
Nachtrag: Ich habe in meinem 2. PC eine GF 2 MX-400 diese ist mit einem 40er Lüfter aktif gekühlt. Kann ich diese Karte passiv kühlen. Welche Kühler ist zu empfehlen?

Danke euch

Gruß

Robert Für die GF2MX gibt es meines Wissens einen Thread im nVidia Unterforum.