PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Matrox und Bildqualität - Mein Eindruck


Gohan
2002-05-20, 22:19:35
Nach dem ich jetzt monatelang auf Voodoo 5 und noname GeForce3 fuhr, baute ich heute mal Testweise meine alte G400 ein.

Ich fiel ja aus allen Wolken als ich dann meinen Desktop nach dem booten mit Treibern sah. Sowas hatte ich nicht erwartet. gestochen scharf, farbstark usw.

In Spielen macht sich das auch sehr gut bemerkbar, auch wenn sie unspielbar sind :eyes: scharfe Texturen, sowas kenne ich garnicht mehr wenn ich den 3DMark2k 1 default benche ;) (So nebenbei, 1060 Punkte Yeha! ;D )

Jedi Knight 2 (übrigens auch unspielbar) sieht auch genail aus, hmhmhmhm =)

Gut... da Sommer ist und ich zu dieser Zeit aus thermischen Gründen eh nicht Spiele, glaube ich das ich die Zeit bis August mit der Matrox überbrücken werde ;) So eine Bildquali will ich nicht missen.

Andere Matrox-Besitzer können diesen Eindruck vielleicht bestätigen ^^

Dr.Doom
2002-05-20, 22:31:51
Bestätigen?
Jo, aber das weiss ich noch aus meiner Erinnerung, dass meine Mystique(-175) ein gutes Bild hat(te) :D .

StefanV
2002-05-20, 22:37:20
hehe, nicht umsonst schwören eingefleischte MGA User so sehr auf MGA *eg*

Die G400 hat anscheinend auch Ronald vom Hocker gerissen, siehe den 1. Artikel auf 3DCenter *eg*

Auch schaut eine MGA Karte mit RF Filter meist besser aus als einige andere ohne RF Filter...

Kai
2002-05-20, 22:44:37
Payne. Wie entferne ich meinen RF eigentlich? Gibt es da Anleitungen?

StefanV
2002-05-20, 22:53:38
Originally posted by Kai
Payne. Wie entferne ich meinen RF eigentlich? Gibt es da Anleitungen?

1. mit 'nem Lötkolben
bei NV Karten sind es meist 2 Kondensatoren und eine Spule

2. ja, z.B. bei Mitrax für 'ne Kyro 2.
Der RF Filter schaut aber bei vielen Karten gleich/ähnlich aus (außer bei Radeon und Matrox).
bei meiner ELSA GF3 schauts so aus:

c L c
c L c
c L c

c->Condensator, L->Spule

ernesto.che
2002-05-20, 23:03:37
Habe meine G400 32MBSH letztens auch mal wieder eingebaut gehabt. Das Bild ist der Hammer. :)

Doomtrain
2002-05-20, 23:55:03
Originally posted by ernesto.che
Habe meine G400 32MBSH letztens auch mal wieder eingebaut gehabt. Das Bild ist der Hammer. :)

Dann weiß ich ja, von welcher Marke meine nächste Graka sein wird ;)

Dunkeltier
2002-05-20, 23:57:13
Und wie mache ich eine Radeon 8500 LE scharf?

ernesto.che
2002-05-21, 00:09:45
Originally posted by Doomtrain


Dann weiß ich ja, von welcher Marke meine nächste Graka sein wird ;)

wenn du viel mit 2d machst sowieso und wenn die neue matrox dick wird...

ernesto.che
2002-05-21, 00:10:10
Originally posted by Black Cow
Und wie mache ich eine Radeon 8500 LE scharf?
Probiers mal mit Reizwäsche;)

StefanV
2002-05-21, 00:15:47
Originally posted by Black Cow
Und wie mache ich eine Radeon 8500 LE scharf?

DAS ist etwas komplizierter, da der RF Filter der Radeon von anderen Bauteilen 'umramt' wird und so schwer ausfindig zu machen ist.

Auch sind es anscheinend mehrere parallel geschaltet...

Doomtrain
2002-05-21, 00:23:27
Originally posted by ernesto.che


wenn du viel mit 2d machst sowieso und wenn die neue matrox dick wird...

Ich arbeite viel am PC, Filme, Bilder, Internet (Forum;)), da habe ich gerne ein cooles Bild. Aber schlecht ist es jetzt auch nicht. Bin Matroxentwöhnt seid der G400!

Unregistered
2002-05-21, 13:03:20
Hi

Wenn ich den Unreal Screen im Vergleich zur GeFOrce sehe, dann wundere ich mich ob bis jetzt alle Mags und Tester Blind auf den Augen waren.

Die G400 war damals Leistungsmässig mit einer TNT2 Pro auf.
Preismässig waren beide in etwa gleich.
Warum wurde dann die nVIDIA Kárte immer Sieger. ???

Das ist Bildqualität und Schärfe.

Die TNT2 hat mehr Probleme verursacht als die Karte genutzt hat.

Gruss Labberlippe

ow
2002-05-21, 13:17:21
LL

Die G400 war keine ernsthafte Konkurrenz fuer eine TNT2. Vorallem wegen des grauenhaft schlechten OGL Supports von Matrox.

TNT rulz;)

Unregistered
2002-05-21, 13:24:51
Originally posted by ow
LL

Die G400 war keine ernsthafte Konkurrenz fuer eine TNT2. Vorallem wegen des grauenhaft schlechten OGL Supports von Matrox.

TNT rulz;)
A geh.
Matrox hat bald die OGL Treiber nach geliefert.
Freilich waren diese nicht so funktional wie die von nVIDIA, aber Games konnte damit gezogt werden und das ist ausreichend.
Aber stimmt schon nVIDIA hat seit der TNT natürlich "richtige" OGL Treiber.

Gruss Labberippe

ernesto.che
2002-05-21, 14:13:02
Originally posted by ow
LL

Die G400 war keine ernsthafte Konkurrenz fuer eine TNT2. Vorallem wegen des grauenhaft schlechten OGL Supports von Matrox.

TNT rulz;)
In hohen Auflösungen war die G400(insb. MAX) allen anderen (TNT2/V3) überlegen.
Sie brauchte aber auch mehr CPU Power.

Quasar
2002-05-21, 14:17:51
...anfangs nur, weil sie 32Bit Farbtiefe mit 16Bit Z-Buffer nutzte...ein erstes Mittel zur Schonung der Bandbreite...

StefanV
2002-05-21, 14:39:05
Originally posted by Quasar
...anfangs nur, weil sie 32Bit Farbtiefe mit 16Bit Z-Buffer nutzte...ein erstes Mittel zur Schonung der Bandbreite...

Wenn man das häckchen nicht setzt hast du recht, aber man muß ja 'nur' das Häckchen setzten, wofür man mal einen Blick in die Treiberoptionen werfen muß...
Wer das nicht getan hat, der hat halt pech gehabt ;)

Ist eine ähnliche Option, wie sie ATI drin hat...

guckst du hier:
http://home.t-online.de/home/tora-janar/Fotos/MGA.jpg
(und wenn ich mich nicht irre, dann ist das, was auf dem Bild ist, die default Einstellung)...

Gohan
2002-05-21, 15:19:48
@Stefan@ Das ist die Deafulteinstellung ;)

Quasar
2002-05-21, 15:29:22
Deswegen schrieb ich auch "anfangs"....

BTW, weiß jemand, ob das Setting auch in OpenGL wirkt? Bei Matrox weiß man ja nie...

ZilD
2002-05-21, 22:33:50
jop matrox ist ziemlich krass was schärfe und farben betrifft.

ich bin ja damals umgestiegen von der g400 max auf die gts2 und bei nvidia war das erste was mir aufgefallen ist jenes und zwar -> wo ist die farbsättigung hin ?

mirp
2002-05-21, 22:58:14
Originally posted by Quasar
BTW, weiß jemand, ob das Setting auch in OpenGL wirkt? Bei Matrox weiß man ja nie...

So weit ich mich erinnern kann, stand im Hilfetext (mit ? anklicken) zu "Use 32-Bit Z-Buffering" etwas dazu.

StefanV
2002-05-21, 23:14:21
Originally posted by mirp
So weit ich mich erinnern kann, stand im Hilfetext (mit ? anklicken) zu "Use 32-Bit Z-Buffering" etwas dazu.

ist anscheinend nur für D3D...

Matrox PowerDesk à Options

Use 32-bit Z-buffering

Enable this check box to make a 32-bit Z-buffer available for programs that use Direct3D. Compared to a traditional 16-bit Z-buffer, a 32-bit Z-buffer allows for more accurate 3D depth calculations, but may slow down performance.
Not all Direct3D programs support a 32-bit Z-buffer.



PS: dt sucks *eg*

Quasar
2002-05-22, 02:39:41
Danke...THG hat's damals am Beispiel Quake3 gezeigt, da führte der 16Bit Z-Buffer zu einigen flackrigen Objekten in der Ferne.