PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Matrox stellt neue grafikkarten vor !


mapel110
2003-04-24, 00:04:18
http://www.hartware.net/press.html?id=1000
hier das pressrelease.
karten sind, wie erwartet war, hauptsächlich für professionelle zwecke.

/edit
http://www.matrox.com/mga/archive_story/apr2003/mill_pseries.cfm


/edit2
zur errinnerung
http://www.3dcenter.de/artikel/parhelia/
das parhelia review auf 3dcenter

StefanV
2003-04-24, 00:06:37
'leider' 'etwas' größer als erwartet :(

Aquaschaf
2003-04-24, 00:41:18
Im Vergleich zur Original Parhelia fast günstig ... die Karten werden berechtigterweise schon Käufer finden .

mapel110
2003-04-24, 00:46:15
viel an speed werden die wohl nicht gegenüber der parhelia einbüssen.
wenn guter speicher verbaut wird, kann man die bestimmt auch zum zocken nehmen.

Xmas
2003-04-24, 00:53:03
Originally posted by mapel110
viel an speed werden die wohl nicht gegenüber der parhelia einbüssen.
wenn guter speicher verbaut wird, kann man die bestimmt auch zum zocken nehmen.
Dann muss aber der Takt schon recht hoch sein, der Chip ist was die Füllrate angeht ziemlich schwach.

mapel110
2003-04-24, 01:01:22
Originally posted by Xmas

Dann muss aber der Takt schon recht hoch sein, der Chip ist was die Füllrate angeht ziemlich schwach.

hm, hab gerade mal parhelia specs angeschaut. also den ram-takt wird man nicht grossartig steigern können (275 mhz).
aber der chiptakt sollte doch einiges an spielraum haben. wenn matrox diesem eventuell bei 250 mhz ansetzt, dürfte die karte schon "okay" sein.

Axel
2003-04-24, 08:45:06
Die Karten sind für 3d-Spiele eher ungeeignet. Man hat die Parhelia halbiert. 2x2-pipeline, 128-bit-Speicherinterface vielleicht auch die Taktraten. Die P650 ist passiv gekühlt, die P750 aktiv und somit vielleicht auf Parhelia-Niveau getaktet.
Bei den Specs findet sich übrigens kein Kommentar zu FAA oder AF. Diese Karten sind interessant, aber nicht für Spieler.

Gohan
2003-04-24, 08:51:36
Laut meinen japanischen Quellen (mal wieder) solls FAA optimiert worden sein.

StefanV
2003-04-24, 10:54:11
Originally posted by Axel
Die Karten sind für 3d-Spiele eher ungeeignet. Man hat die Parhelia halbiert. 2x2-pipeline, 128-bit-Speicherinterface vielleicht auch die Taktraten. Die P650 ist passiv gekühlt, die P750 aktiv und somit vielleicht auf Parhelia-Niveau getaktet.
Bei den Specs findet sich übrigens kein Kommentar zu FAA oder AF. Diese Karten sind interessant, aber nicht für Spieler.

Hm, eine 2x2 Pipeline wäre aber gevirtelt :)

Hast du ein PIC von der P650 ??

Axel
2003-04-24, 12:03:36
Die 2x2-pipeline standen im Murc-Forum. Ich finde die Stelle aber nicht mehr. :|
Bilder gibs auf der Matrox-Seite. Diese sind aber keineswegs repräsentativ.

Bilder (http://www.matrox.com/mga/media_center/artwork/mill_pseries.cfm)


Da es momentan keinerlei Infos über den Chip als solchen gibt, kann man auch spekulieren, ob der P750 nicht die 64MB-Variante der Parhelia ist.

ow
2003-04-24, 18:04:04
Originally posted by Axel

Da es momentan keinerlei Infos über den Chip als solchen gibt, kann man auch spekulieren, ob der P750 nicht die 64MB-Variante der Parhelia ist.

Es wäre IMO aber nicht sehr sinnvoll, die kostengünstigere 64MB Version erst jetzt (mehr als 9Mon. nach dem Parhelia Launch) zu bringen. Oder siehst du das anders?

Axel
2003-04-24, 18:31:57
Originally posted by ow

Es wäre IMO aber nicht sehr sinnvoll, die kostengünstigere 64MB Version erst jetzt (mehr als 9Mon. nach dem Parhelia Launch) zu bringen. Oder siehst du das anders?


Warum sollte es nicht sinnvoll sein, wenn der Preis stimmt? Letztendlich basiert diese P750 auf der Parhelia, erreicht wahrscheinlich nicht deren 3D-Geschwindigkeit, hat 64MB weniger Speicher und ist nicht wirklich billig, auch wenn die Straßenpreise niedriger ausfallen werden.
Du hast allerdings recht, wenn du meinst, daß eine 64MB-Parhelia nicht zu diesem Preis verkauft worden wäre und damit zu teuer für den angepeilten Markt gewesen wäre.

Diese Karten wären eigentlich was für Zeckensacks Archmark, falls dieser mal fertig bzw. veröffentlicht wird.

ow
2003-04-24, 18:37:49
Originally posted by Axel



Warum sollte es nicht sinnvoll sein, wenn der Preis stimmt? Letztendlich basiert diese P750 auf der Parhelia, erreicht wahrscheinlich nicht deren 3D-Geschwindigkeit, hat 64MB weniger Speicher und ist nicht wirklich billig, auch wenn die Straßenpreise niedriger ausfallen werden.
Du hast allerdings recht, wenn du meinst, daß eine 64MB-Parhelia nicht zu diesem Preis verkauft worden wäre und damit zu teuer für den angepeilten Markt gewesen wäre.

Diese Karten wären eigentlich was für Zeckensacks Archmark, falls dieser mal fertig bzw. veröffentlicht wird.


Die lowcost-Varianten sollte nicht erst dann erscheinen, wenn für das Topprodukt der Reihe schon kein Interesse mehr besteht.

Zum Vergleich: wenn die GF4ti4200 erst zum Ende letzten Jahres erschienen wäre, dann hätte die doch auch keinen mehr interessiert. Nicht gut für´s Geschäft.

Salvee
2003-04-24, 18:56:56
Hier die 'hochinformativen' offiziellen Produktseiten

P650 (http://www.matrox.com/mga/products/mill_pseries/p650.cfm)
P750 (http://www.matrox.com/mga/products/mill_pseries/p750.cfm)

Unreal Soldier
2003-04-24, 23:44:18
Also ich freue ich mich auf die P750. Wenn sie den SQ Bug korregiert haben, dann wede ich meiner G550 Urlaub in meinem Server geben.

One more generation Dual-Monitoring on my Pc. YEAH.

StefanV
2003-04-25, 00:13:21
Ist zwar etwas japanisch, aber dafür gibts hübsche Bildchen:

http://pc.watch.impress.co.jp/docs/2003/0423/matrox.htm

Unreal Soldier
2003-04-25, 01:27:25
Originally posted by Stefan Payne
Ist zwar etwas japanisch, aber dafür gibts hübsche Bildchen:

http://pc.watch.impress.co.jp/docs/2003/0423/matrox.htm

Die gleichen Fotos stehen auch auf Rivastation.vom LOL@Borsti.

Schnitzl
2003-04-25, 14:02:28
bin mal gespannt auf die Geschwindigkeit und Taktung der Karten.
Wenns 0.13-Fertigung ist, könnte es durchaus interessant sein...
Weiss jemand, wanns erste Tests gibt ?

MfG

ow
2003-04-25, 14:06:47
Originally posted by Schnitzl
bin mal gespannt auf die Geschwindigkeit und Taktung der Karten.
Wenns 0.13-Fertigung ist, könnte es durchaus interessant sein...
Weiss jemand, wanns erste Tests gibt ?

MfG


ich wurde mal meinen (wie bei Matrox ueblich), nachdem die Karten im Handel sind. war beim parhelia doch auch nicht anders. und imo bedeutet das nix allzu gutes fuer die performance.

mapel110
2003-04-25, 14:07:04
Originally posted by Schnitzl
bin mal gespannt auf die Geschwindigkeit und Taktung der Karten.
Wenns 0.13-Fertigung ist, könnte es durchaus interessant sein...
Weiss jemand, wanns erste Tests gibt ?

MfG

sollte imo in 2-3 wochen soweit sein. matrox stand ja schliesslich nicht unter zeitdruck.

Schnitzl
2003-04-25, 14:43:19
Originally posted by ow

ich wurde mal meinen (wie bei Matrox ueblich), nachdem die Karten im Handel sind. war beim parhelia doch auch nicht anders. und imo bedeutet das nix allzu gutes fuer die performance.
Du scheinst nur von der Geschw. bei Spielen auszugehn oder seh ich das falsch ?
;)

mapel110
2003-04-25, 14:48:28
Originally posted by Schnitzl

Du scheinst nur von der Geschw. bei Spielen auszugehn oder seh ich das falsch ?
;)

tut er, ansonsten gibts ja bei matrox nicht viel zu bemägeln. treiber zb sind ja wohl recht gut.

ow
2003-04-25, 15:14:55
Originally posted by Schnitzl

Du scheinst nur von der Geschw. bei Spielen auszugehn oder seh ich das falsch ?
;)

nein, das ist schon korrekt.
wobei ich die 3D-Geschwindigkeit allgemein meine, nicht ausschliesslich in Spielen.

über 2D Geschwindigkeit braucht man sich heutzutage ja nicht mehr auszulassen.:D

mapel110
2003-04-25, 15:46:00
Originally posted by ow
über 2D Geschwindigkeit braucht man sich heutzutage ja nicht mehr auszulassen.:D

aber über die qualität und features des 2D betriebes.

ow
2003-04-25, 16:32:10
Originally posted by mapel110


aber über die qualität und features des 2D betriebes.

und was ist dazu zu sagen?


btw. hab hier gerade eine G200 drin, deren Treiber sind das mieseste, was mir je untergekommen ist. UNGLAUBLICH!
Das Ding stellt noch nicht EINE Szene aus den 3DMarks 2000/2001 fehlerfrei dar. Und Q3 auch nicht (Rauch ist nicht transparent).
IMO zeugt das nicht gerade von gutem Treibersupport.

Mr. Lolman
2003-04-25, 16:37:39
Originally posted by ow


und was ist dazu zu sagen?


btw. hab hier gerade eine G200 drin, deren Treiber sind das mieseste, was mir je untergekommen ist. UNGLAUBLICH!
Das Ding stellt noch nicht EINE Szene aus den 3DMarks 2000/2001 fehlerfrei dar. Und Q3 auch nicht (Rauch ist nicht transparent).
IMO zeugt das nicht gerade von gutem Treibersupport.

Naja, die G200 war schon, als sie noch ganz neu war, nicht die ideale Gamerkarte.

ow
2003-04-25, 16:42:37
Originally posted by Mr. Lolman


Naja, die G200 war schon, als sie noch ganz neu war, nicht die ideale Gamerkarte.

Ich hätte sie damals als direkte Konkurrenz zum RivaTNT gesehen. Jetzt nicht mehr.;)
80MPix/s Fillrate und nur 1TMU bringen auch nicht wirklich richtig Leistung.
Chip- und RAM-Takt ist lt. Powerstrip 126MHz, ist ein 8MB Millenium G200 AGP Karte.
Aber die Darstellungsfehler in 3D!
Einfach schade, der Chip kann og. Apps sicher fehlerfrei darstellen, das kann selbst ein grottiger Intel i740.:D

Unreal Soldier
2003-04-25, 16:44:03
Wiess irgendjemand ob bei den neuen Parhelias der SQ Bug korregiert wurde ????

Axel
2003-04-25, 17:01:15
Die einzigen Infos über den Chip, die ich bislang gelesen habe, stehen bei golem (http://www.golem.de/showhigh.php?file=/0304/25164.html&wort[). Aber ob diese wirklich stimmen, wahrscheinlich.
Die Review-Karten sollen in 2-3Wochen verschickt werden. Ich würde mit Ergebnisse nicht vor Ende Mai rechnen, zu dem Zeitpunkt an dem sie auch zu kaufen sein sollen.

Unreal Soldier
2003-04-25, 17:16:08
Naja ich warte eigentlich auf die Reviews auch, da ich für meine Workstation die beste SQ will. Ich hoffe mal dass die PArheliaLXs (*hoff) eine Leistung einer R9000Pro haben.

Schnitzl
2003-04-25, 17:37:48
Originally posted by ow

btw. hab hier gerade eine G200 drin, deren Treiber sind das mieseste, was mir je untergekommen ist. UNGLAUBLICH!
Das Ding stellt noch nicht EINE Szene aus den 3DMarks 2000/2001 fehlerfrei dar. Und Q3 auch nicht (Rauch ist nicht transparent).
IMO zeugt das nicht gerade von gutem Treibersupport.
Ganz abgesehen von dem Sinn, mit einer G200 Q3 zocken zu wollen, nenn ich das mal self-fullfilling prophecy =)

Ich hatte da keine Probleme, vielleicht sitzt das Problem ja vor dem Bildschirm ? ;)

MfG

StefanV
2003-04-25, 19:46:12
Originally posted by ow
btw. hab hier gerade eine G200 drin, deren Treiber sind das mieseste, was mir je untergekommen ist. UNGLAUBLICH!
Das Ding stellt noch nicht EINE Szene aus den 3DMarks 2000/2001 fehlerfrei dar. Und Q3 auch nicht (Rauch ist nicht transparent).
IMO zeugt das nicht gerade von gutem Treibersupport.

Dann weißt du ja ungefähr, wie eine NV3 war :naughty:

BTW: was fürn Treiber ??
Weder bei meiner G400/16SD noch bei meiner G550 DualDVI hab ich solche 'Probleme'...

L. Trotzkij
2003-04-25, 21:19:59
Originally posted by Axel
Die Karten sind für 3d-Spiele eher ungeeignet. Man hat die Parhelia halbiert. 2x2-pipeline, 128-bit-Speicherinterface vielleicht auch die Taktraten. Die P650 ist passiv gekühlt, die P750 aktiv und somit vielleicht auf Parhelia-Niveau getaktet.
Bei den Specs findet sich übrigens kein Kommentar zu FAA oder AF. Diese Karten sind interessant, aber nicht für Spieler.

Soweit ich weiss hat ne Parhelia ne 4x4 Architektur.
Dem zu Folge hat ne 650 ne 2x4.
Füllratenmässig waren und sind die KArten eigentlich konkurrenzfähig(theorethisch).

RyoHazuki
2003-04-25, 22:48:58
Soweit ich weiss hat ne Parhelia ne 4x4 Architektur.
Dem zu Folge hat ne 650 ne 2x4.
Füllratenmässig waren und sind die KArten eigentlich konkurrenzfähig(theorethisch).

---------------------------------------------------------------------

Naja füllratenmässig wäre die Parhelia nur wenn sie auf 400 - 500 Chip takten würde !

man überlege doch nur mal wieviel texel fillrate die Parhelia haben würde...

500 x 4 x 4 = 8000 MegaTexels = 8 GigaTexel
500 x 4 x 1 = 2000 MegaPixels = 2 Megapixel

jetzt nur noch ein 8x unterteilter speicherkontroller und Z Compression. *TRÄUM*

StefanV
2003-04-25, 23:06:00
naja, Matrox sollte UMC auch mal zum Teufel jagen und die High End Chips bei jemand anderen fertigen lassen....

ow
2003-04-25, 23:18:26
Originally posted by Stefan Payne


Dann weißt du ja ungefähr, wie eine NV3 war :naughty:

BTW: was fürn Treiber ??
Weder bei meiner G400/16SD noch bei meiner G550 DualDVI hab ich solche 'Probleme'...


just4info:

der G200 treiber ist vom februar 2002 und wohl kaum mit einem 4 jahre alten NV3 Treiber zu vergleichen.
davon abgesehen halte ich jede wette, dass der NV3 Treiber viel fehlerfreier arbeitet als der G200 Treiber.
Selbst der Savage2k Treiber ist ein Glanzstück gegen diesen Matrox Mist. Und das will was heissen.

ich werd jetzt bald mal noch den letzten WHQL (vom juni 2001?) ausprobieren, und wenn der auch nix taugt, dann sind meine G200 Tests schnell beendet. hat mich ja glücklicherweise nix gekostet die Karte, hab sie gegen meine RagePro Turbo getauscht.

achja:: nichtmal der rotierende würfel aus dem dxdiag test wird korrekt gerendert.

ow
2003-04-25, 23:20:53
->pic:

/edit: so jetzt aber genug OT, es geht hier ja um aktuelle Matroxe.

StefanV
2003-04-25, 23:31:10
Originally posted by ow
->pic:

/edit: so jetzt aber genug OT, es geht hier ja um aktuelle Matroxe.
So, hier mal ein Pic von einer G400, schaut eigentlich recht ordentlich aus:

RyoHazuki
2003-04-25, 23:31:55
das ganze kann man aber auch anders lösen.

Statt 4 Pipelines einfach 16 Pipelines einbauen *gg*

220 MHZ x 16 x 4 = 14080 Megatexels = 14,08 Gigatexel
220 MHZ x 16 x 1 = 3520 MegaPixels = 3,52 GigaPixel

zum vergleich, eine

- Radeon 9800 Pro mit 380MHZ hat 3040 MegaPixels.
- GeforceFX Ultra mit 500MHZ hat 4000 MegaPixels bzw. 2000 MPixel.
- GeforceFX non U mit 400MHZ hat 3200 MegaPixels bzw. 1600 Mpixel.
- Matrox Parhelia mit 220MHZ hat 880 MegaPixels (etwas sehr wenig)
- Geforce 2 GTS mit 200MHZ hat 800 MegaPixels (wenig aber zu P?)
- Radeon 8500 mit 275MHZ hat 1100 MegaPixels

tja, wie man sieht hat die Parhelia einfach zu wenig Fillrate ! Eine 8 Fache Pipeline und etwas höherer takt (ca. 300) würde die Parhelia rauf in richtung Radeon 9500 bis Radeon 9500Pro katapultieren.

Ein verbessertes SpeicherInterface (4 - 8x unterteilt)
+ Z-Compression + mehr Speichertakt ( ca. +100 MHZ) würde die Parhelia dann über die Radeon9700Pro bringen.

Begründung : Die Parhelia hat mit einer 8x4 Architektur eine enorme Multitexturing leistung.

Wenn man aber Idealfall simuliert, sprich

- 8x4 Architektur
- Z-Compression + Color Compression (für SSAA)
- 4 - 8x Unterteilter SpeicherController
- 500 MHZ Chip und Speichertakt

tja dann wäre es in meinen augen (natürlich noch richtige treiber) ein Radeon 9800 killer.

wie seht ihr das ?

Unregistered
2003-04-25, 23:34:42
vielleicht ist deine G200 auch einfach defekt? Ist ernsthaft gemeint!

Demirug
2003-04-25, 23:36:52
Originally posted by RyoHazuki
das ganze kann man aber auch anders lösen.

Statt 4 Pipelines einfach 16 Pipelines einbauen *gg*

220 MHZ x 16 x 4 = 14080 Megatexels = 14,08 Gigatexel
220 MHZ x 16 x 1 = 3520 MegaPixels = 3,52 GigaPixel

zum vergleich, eine

- Radeon 9800 Pro mit 380MHZ hat 3040 MegaPixels.
- GeforceFX Ultra mit 500MHZ hat 4000 MegaPixels bzw. 2000 MPixel.
- GeforceFX non U mit 400MHZ hat 3200 MegaPixels bzw. 1600 Mpixel.
- Matrox Parhelia mit 220MHZ hat 880 MegaPixels (etwas sehr wenig)
- Geforce 2 GTS mit 200MHZ hat 800 MegaPixels (wenig aber zu P?)
- Radeon 8500 mit 275MHZ hat 1100 MegaPixels

tja, wie man sieht hat die Parhelia einfach zu wenig Fillrate ! Eine 8 Fache Pipeline und etwas höherer takt (ca. 300) würde die Parhelia rauf in richtung Radeon 9500 bis Radeon 9500Pro katapultieren.

Ein verbessertes SpeicherInterface (4 - 8x unterteilt)
+ Z-Compression + mehr Speichertakt ( ca. +100 MHZ) würde die Parhelia dann über die Radeon9700Pro bringen.

Begründung : Die Parhelia hat mit einer 8x4 Architektur eine enorme Multitexturing leistung.

Wenn man aber Idealfall simuliert, sprich

- 8x4 Architektur
- Z-Compression + Color Compression (für SSAA)
- 4 - 8x Unterteilter SpeicherController
- 500 MHZ Chip und Speichertakt

tja dann wäre es in meinen augen (natürlich noch richtige treiber) ein Radeon 9800 killer.

wie seht ihr das ?

Und wo lassen wir das Teil produzieren? Und gibt es dann P-Flow dazu?

Fragen über Fragen

ow
2003-04-25, 23:37:42
Originally posted by Stefan Payne

So, hier mal ein Pic von einer G400, schaut eigentlich recht ordentlich aus:

hilft mir wenig auf der G200.

ow
2003-04-25, 23:40:06
Originally posted by Unregistered
vielleicht ist deine G200 auch einfach defekt? Ist ernsthaft gemeint!

nö, glaube ich nicht.

stabil läuft sie ja, opengl funzt auch halbwegs passabel, der treiber ist besser als der d3d part.
Und 3dmark99 funzt wenigstens fehlerfrei.:D

Ikon
2003-04-26, 00:08:42
Originally posted by RyoHazuki
das ganze kann man aber auch anders lösen.

Statt 4 Pipelines einfach 16 Pipelines einbauen *gg*

220 MHZ x 16 x 4 = 14080 Megatexels = 14,08 Gigatexel
220 MHZ x 16 x 1 = 3520 MegaPixels = 3,52 GigaPixel

zum vergleich, eine

- Radeon 9800 Pro mit 380MHZ hat 3040 MegaPixels.
- GeforceFX Ultra mit 500MHZ hat 4000 MegaPixels bzw. 2000 MPixel.
- GeforceFX non U mit 400MHZ hat 3200 MegaPixels bzw. 1600 Mpixel.
- Matrox Parhelia mit 220MHZ hat 880 MegaPixels (etwas sehr wenig)
- Geforce 2 GTS mit 200MHZ hat 800 MegaPixels (wenig aber zu P?)
- Radeon 8500 mit 275MHZ hat 1100 MegaPixels

tja, wie man sieht hat die Parhelia einfach zu wenig Fillrate ! Eine 8 Fache Pipeline und etwas höherer takt (ca. 300) würde die Parhelia rauf in richtung Radeon 9500 bis Radeon 9500Pro katapultieren.

Ein verbessertes SpeicherInterface (4 - 8x unterteilt)
+ Z-Compression + mehr Speichertakt ( ca. +100 MHZ) würde die Parhelia dann über die Radeon9700Pro bringen.

Begründung : Die Parhelia hat mit einer 8x4 Architektur eine enorme Multitexturing leistung.

Wenn man aber Idealfall simuliert, sprich

- 8x4 Architektur
- Z-Compression + Color Compression (für SSAA)
- 4 - 8x Unterteilter SpeicherController
- 500 MHZ Chip und Speichertakt

tja dann wäre es in meinen augen (natürlich noch richtige treiber) ein Radeon 9800 killer.

wie seht ihr das ?

Wie einen Wunschtraum. Mal im Ernst: Nachdem die Parhelia als Gamerkarte schon so gnadenlos versagt hat, erwartest du von einer dedizierten Nicht-Gamer-Karte diese Killerfeatures? Und das, wo in der Produktvorstellung nichteinmal das Wort "3D" vorkommt?

Unreal Soldier
2003-04-26, 00:32:54
@Ow

Ich hab hier auch eine G200 rumliegen. wenn du willst kann ich die in meinem zweiten Rechner einabuen und sie mal testen um die Ergebnisse zu vergleichen.

ow
2003-04-26, 00:46:59
Originally posted by Unreal Soldier
@Ow

Ich hab hier auch eine G200 rumliegen. wenn du willst kann ich die in meinem zweiten Rechner einabuen und sie mal testen um die Ergebnisse zu vergleichen.

ja, das wäre nett.

vielleicht kannst du mir auch einen treiber empfehlen, hab mir halt als erstes den neuesten runtergeladen und allzuviele downloads will ich meinem modem nicht zumuten.;)
thx.:)

btw. der ogl treiber zeigt teils recht gute ansätze, glquake, Quake2 engine und sogar dronezmark(:o) laufen fehlerfrei.

RyoHazuki
2003-04-26, 01:08:15
Leute nehmt das doch nicht so ernst !

@ demirug

es ist und bleibt weiterhin ein wunschtraum !
Frage mal an dich,

der Savage 2000 kann ja als 2x1 oder als 2x2 chip eingesetzt werden ! wie funktioniert das genau ? Echt physisch vorhanden muss er doch dann 2x2 haben oder ? aber was bringt es dann ihn auf 2x2 runter zu schrauben ????


Fragen über Fragen

oliht
2003-04-26, 09:21:28
Originally posted by ow


ja, das wäre nett.

vielleicht kannst du mir auch einen treiber empfehlen, hab mir halt als erstes den neuesten runtergeladen und allzuviele downloads will ich meinem modem nicht zumuten.;)
thx.:)

btw. der ogl treiber zeigt teils recht gute ansätze, glquake, Quake2 engine und sogar dronezmark(:o) laufen fehlerfrei.

Poste mal im Matrox Tech Support forum normalerweise helfen die einen gut und schnell.

Demirug
2003-04-26, 10:12:49
Originally posted by RyoHazuki
Leute nehmt das doch nicht so ernst !

@ demirug

es ist und bleibt weiterhin ein wunschtraum !
Frage mal an dich,

der Savage 2000 kann ja als 2x1 oder als 2x2 chip eingesetzt werden ! wie funktioniert das genau ? Echt physisch vorhanden muss er doch dann 2x2 haben oder ? aber was bringt es dann ihn auf 2x2 runter zu schrauben ????


Fragen über Fragen

Ich dachte der Begriff P-Flow reicht um zu zeigen das ich das ganze nicht wirklich ernst meinte.

Zu deinem Savage 2000 Problem. Jeder "echte" 2x2 Chip arbeitet beim Single Texturing nur als 2x1 Chip. Und genau das macht der Savage 2000 auch. Zudem kann er durch Pipeline combinding auch noch als 1x4 Chip genutzt werden.

ow
2003-04-26, 10:26:20
Originally posted by Demirug

Zudem kann er durch Pipeline combinding auch noch als 1x4 Chip genutzt werden.


was meiner erfahrung nach aber eher schlecht funzt.
die TMUS sind nur bilinear, der PVR Villagemark läuft bilinear mit 3tex/pass im single-pass fehlerfrei, schaltet man auf trilinear ist´s aus damit. ausser viel schwarz und ein paar einzelne Texturen ist da nix mehr zu sehen.

Muh-sagt-die-Kuh
2003-04-26, 11:23:17
Originally posted by ow


nö, glaube ich nicht.

stabil läuft sie ja, opengl funzt auch halbwegs passabel, der treiber ist besser als der d3d part.
Und 3dmark99 funzt wenigstens fehlerfrei.:D Ist der OpenGL "Treiber" einer G200 nicht nur ein D3D Wrapper?

Demirug
2003-04-26, 11:30:09
Originally posted by ow



was meiner erfahrung nach aber eher schlecht funzt.
die TMUS sind nur bilinear, der PVR Villagemark läuft bilinear mit 3tex/pass im single-pass fehlerfrei, schaltet man auf trilinear ist´s aus damit. ausser viel schwarz und ein paar einzelne Texturen ist da nix mehr zu sehen.

Könnte auch ein Fehler im Villagemark sein. Unter DX7 ist es durchaus erlaubt das ein Chip die Anzahl der maximal pro Pass verwendeten Texturen von den benutzten Filter abhängig macht. Es gibt extra eine Funktion zum prüfen ob der Chip das was man von im will auch wirklich kann. Wenn der Villagemark diese Funktion nicht nutzt ist das wohl ein Fehler von PowerVR. Wenn der Savage Treiber aber beim Aufruf dieser Funktion sagt das er das kann was man will und dann Mist baut liegt der Fehler dort.

StefanV
2003-04-26, 11:57:52
Originally posted by Muh-sagt-die-Kuh
Ist der OpenGL "Treiber" einer G200 nicht nur ein D3D Wrapper?

Nein, nicht mehr, das war er 'nur' in einigen frühen Releases.

Pünktlich zum Release der G400 hat MGA einen ICD gebacken bekommen ;D

Aquaschaf
2003-04-26, 12:33:44
Originally posted by RyoHazuki
das ganze kann man aber auch anders lösen.

Statt 4 Pipelines einfach 16 Pipelines einbauen *gg*

220 MHZ x 16 x 4 = 14080 Megatexels = 14,08 Gigatexel
220 MHZ x 16 x 1 = 3520 MegaPixels = 3,52 GigaPixel

zum vergleich, eine

- Radeon 9800 Pro mit 380MHZ hat 3040 MegaPixels.
- GeforceFX Ultra mit 500MHZ hat 4000 MegaPixels bzw. 2000 MPixel.
- GeforceFX non U mit 400MHZ hat 3200 MegaPixels bzw. 1600 Mpixel.
- Matrox Parhelia mit 220MHZ hat 880 MegaPixels (etwas sehr wenig)
- Geforce 2 GTS mit 200MHZ hat 800 MegaPixels (wenig aber zu P?)
- Radeon 8500 mit 275MHZ hat 1100 MegaPixels

tja, wie man sieht hat die Parhelia einfach zu wenig Fillrate ! Eine 8 Fache Pipeline und etwas höherer takt (ca. 300) würde die Parhelia rauf in richtung Radeon 9500 bis Radeon 9500Pro katapultieren.

Ein verbessertes SpeicherInterface (4 - 8x unterteilt)
+ Z-Compression + mehr Speichertakt ( ca. +100 MHZ) würde die Parhelia dann über die Radeon9700Pro bringen.

Begründung : Die Parhelia hat mit einer 8x4 Architektur eine enorme Multitexturing leistung.

Wenn man aber Idealfall simuliert, sprich

- 8x4 Architektur
- Z-Compression + Color Compression (für SSAA)
- 4 - 8x Unterteilter SpeicherController
- 500 MHZ Chip und Speichertakt

tja dann wäre es in meinen augen (natürlich noch richtige treiber) ein Radeon 9800 killer.

wie seht ihr das ?

wieviele transistoren wären das ?
200Mio. ? Wer soll den chip produzieren ? Wie soll der mit
500MHZ laufen ?
( mal ganz abgesehen davon das Matrox sicherlich nicht
in der Lage ist sowas zu designen )
:lol:

Doomtrain
2003-04-26, 13:19:51
Originally posted by Aquaschaf


wieviele transistoren wären das ?
200Mio. ? Wer soll den chip produzieren ? Wie soll der mit
500MHZ laufen ?
( mal ganz abgesehen davon das Matrox sicherlich nicht
in der Lage ist sowas zu designen )
:lol:

Das wäre schon möglich, keine Frage. Nur wer soll dieses Monster bezahlen? Und ich bin überzeugt davon, das Matrox gar kein so schlechtes Designteam hat, nur einen schlechten Chipfertiger.


- 8x4 Architektur
- Z-Compression + Color Compression (für SSAA)
- 4 - 8x Unterteilter SpeicherController
- 500 MHZ Chip und Speichertakt (bei einem 256bit Interface natürlich*eg*)


PS: Das wäre kein R9800 Killer sondern eher ein R400\NV40 Derivat

Doomtrain
2003-04-26, 13:24:17
*doppelpost*

Ikon
2003-04-26, 13:28:19
Originally posted by Doomtrain
Das wäre schon möglich, keine Frage.

Ich bezweifele dass einer der Halbleiterproduzenten zum jetzigen Zeitpunkt fähig wäre, ein derart komplexes Design mit mehr als 200Mio. Transistoren bei einer auch nur halbwegs guten Taktbarkeit und Ausbeute fertigen könnte.

Originally posted by Doomtrain
- 8x4 Architektur
- Z-Compression + Color Compression (für SSAA)
- 4 - 8x Unterteilter SpeicherController
- 500 MHZ Chip und Speichertakt (bei einem 256bit Interface natürlich*eg*)

PS: Das wäre kein R9800 Killer sondern eher ein R400\NV40 Derivat

In der Stochastik würde man es als das "unmögliche Ereignis" bezeichnen, vor allem die Sache mit der 8x4-Architektur (von deren Sinn im Bezug auf Ineffizienz mal ganz zu schweigen).

Doomtrain
2003-04-26, 13:35:08
Originally posted by Ikon


Ich bezweifele dass einer der Halbleiterproduzenten zum jetzigen Zeitpunkt fähig wäre, ein derart komplexes Design mit mehr als 200Mio. Transistoren bei einer auch nur halbwegs guten Taktbarkeit und Ausbeute fertigen könnte.


In der Stochastik würde man es als das "unmögliche Ereignis" bezeichnen, vor allem die Sache mit der 8x4-Architektur (von deren Sinn im Bezug auf Ineffizienz mal ganz zu schweigen).

1)Ausbeute und so interessiert doch jetzt gar nicht. Wenn eine solche Karte halt 5000€ kosten würde, wäre die Ausbeute völlig egal.
Taktrate? Kein Problem würde ich mal sagen. Bei 130mio. Transistoren auf der FX geht das auch mit 500Mhz.

2)Die "Specs" habe ich nur gequotet ;)

Ikon
2003-04-26, 13:40:12
Originally posted by Doomtrain
Ausbeute und so interessiert doch jetzt gar nicht. Wenn eine solche Karte halt 5000€ kosten würde, wäre die Ausbeute völlig egal.

So eine Karte würde weit mehr kosten. Du vergisst die mörderischen Fixkosten, die auf auf eine (bei entsprechendem Preis) winzige Anzahl von Käufern umlegen müsstest. Das wäre betriebswirtschaftlicher Selbstmord.

Die Frage ist nur: wieso sind wir schon wieder völlig OT?

Doomtrain
2003-04-26, 13:42:59
Originally posted by Ikon


So eine Karte würde weit mehr kosten. Du vergisst die mörderischen Fixkosten, die auf auf eine (bei dem Preis) winzige Anzahl von Käufern umlegen müsstest.

Die Frage ist nur: wieso sind wir schon wieder völlig OT?

1)Wie du meinst, dann eben 20000€. Mit einem solchen Produkt will man sowieso keinen Gewinn machen, sondern der Welt nur zeigen, das man "es drauf hat".

2) Keine Plan.


PS: Es gäbe genug Käufer auf dieser Welt für ein solches Produkt. Power Pur verkauft sich immer.

Ikon
2003-04-26, 13:44:43
Originally posted by Doomtrain
Wie du meinst, dann eben 20000€. Mit einem solchen Produkt will man sowieso keinen Gewinn machen, sondern der Welt nur zeigen, das man "es drauf hat".

Den Betrieb möchte ich sehen, der so arbeitet ;D

Doomtrain
2003-04-26, 13:46:51
Originally posted by Ikon


Den Betrieb möchte ich sehen, der so arbeitet ;D


Nvidia z.B. Du glaubst doch nicht, das die auch nur einen Cent an der FX Ultra verdienen. Nur als reines Prestigeobjekt haben die das Teil auf den Markt gebracht.

Ikon
2003-04-26, 13:53:20
Originally posted by Doomtrain
Nvidia z.B. Du glaubst doch nicht, das die auch nur einen Cent an der FX Ultra verdienen. Nur als reines Prestigeobjekt haben die das Teil auf den Markt gebracht.

Es ist ein Unterschied ob ich ein marketing-trächtiges Prestige-Produkt auf den Markt bringe, das zumindest noch halbwegs in der Nähe des Break-Even-Punktes liegt (Annahme) und mir als Ausgleich wenigstens die Grundlage für eine Reihe weiterer Produkte liefert (um die immensen Fixkosten zu decken), als ein Produkt zu releasen, das sich sowieso nicht rechnen kann.

Oder einfach ausgedrückt: die Preisdifferenz 500 <-> 20000 EUR stellt doch einen bezeichnenden Unterschied dar.

RyoHazuki
2003-04-26, 14:13:58
es wäre wirklich unsinnig so etwas zu bauen bzw. zu entwickeln.

- was ist an einer 8x4 architektur ineffizent ??? sorry das musst du mir erklären.

- wie sollen es bitte 200 mio transistoren denn werden ? jetzt hat der parhelia 80 mio.

- dx8 weg dx9 drauf, ca +20 mio.
- ganze bandbreiten technik ca. 10 mio.
- 4 TMU´s anstatt eine wie bei R9700 + ich bin mal nett 15 mio.
- 500 MHZ chip und speicher fressen keine transistoren.

also deine aussage ist voll von WEEEIIIIIITTT hergeholt.

Doomtrain
2003-04-26, 14:41:48
Originally posted by RyoHazuki
es wäre wirklich unsinnig so etwas zu bauen bzw. zu entwickeln.

- was ist an einer 8x4 architektur ineffizent ??? sorry das musst du mir erklären.

- wie sollen es bitte 200 mio transistoren denn werden ? jetzt hat der parhelia 80 mio.

- dx8 weg dx9 drauf, ca +20 mio.
- ganze bandbreiten technik ca. 10 mio.
- 4 TMU´s anstatt eine wie bei R9700 + ich bin mal nett 15 mio.
- 500 MHZ chip und speicher fressen keine transistoren.

also deine aussage ist voll von WEEEIIIIIITTT hergeholt.

200mio Transistors findest du unrealistisch? Bei einer 8x4 Architektur sollten es sogar noch mehr werden. Bedenke: 32TMUs!!!!

Nehmen wir einfach mal eine Parhelia mit Dual Multicore. Das wären dann schon 160mio Transistoren + minimum 30mio Transistoren für DX9 + den bandbreitenschonenden Maßnahmen. Dann kommen sicher noch Transistoren für Optimierungen und und und dazu. Also ich tippe auf 200-250mio Transistoren für deinen Monsterchip...

Wie gesagt, ist natürlich eine Milchmädchenrechnung

Doomtrain
2003-04-26, 14:46:54
Originally posted by Ikon


Es ist ein Unterschied ob ich ein marketing-trächtiges Prestige-Produkt auf den Markt bringe, das zumindest noch halbwegs in der Nähe des Break-Even-Punktes liegt (Annahme) und mir als Ausgleich wenigstens die Grundlage für eine Reihe weiterer Produkte liefert (um die immensen Fixkosten zu decken), als ein Produkt zu releasen, das sich sowieso nicht rechnen kann.

Oder einfach ausgedrückt: die Preisdifferenz 500 <-> 20000 EUR stellt doch einen bezeichnenden Unterschied dar.

Auf der einen Seite hast du recht. Die FX ist noch "verkäuflich" im eigentlichen Sinne. Gewinn wird bei Nvidia aber auch nur mit den Abkömmlingen machen, sprich im Mainstreambereich. Das Matrox das auch könnte, sprich von dem Monsterchip kleinere Brötchen abschneiden, spricht für ein Killerprodukt um einen guten Ruf zu bekommen bzw. zu erhalten.

PS: Die 20000€ waren doch frei erfunden und sehr hypothetisch.

Demirug
2003-04-26, 14:57:36
Originally posted by RyoHazuki
es wäre wirklich unsinnig so etwas zu bauen bzw. zu entwickeln.

- was ist an einer 8x4 architektur ineffizent ??? sorry das musst du mir erklären.

- wie sollen es bitte 200 mio transistoren denn werden ? jetzt hat der parhelia 80 mio.

- dx8 weg dx9 drauf, ca +20 mio.
- ganze bandbreiten technik ca. 10 mio.
- 4 TMU´s anstatt eine wie bei R9700 + ich bin mal nett 15 mio.
- 500 MHZ chip und speicher fressen keine transistoren.

also deine aussage ist voll von WEEEIIIIIITTT hergeholt.

-eine ?x4 Architektur erfordert das pro Takt ein vielfaches von 4 Bi-Sampels gebraucht wird. Wird eine andere Anzahl gebraucht hat man Verschnitt.

-bei einer richtigen ?x4 Architektur gibt es auch 4 ALUs pro Pipeline. Mit 4 ALUs bekommt man entweder erhebliche dependency Probleme oder man muss wesentlich mehr Pixel interleaved bearbeiten was die grösse des Registersets pro Pipeline in die Höhe treibt.

Bei einem 8TMU/ALU DX9 Chip muss man von mindestens 100 Mio ausgehen. Davon entfällt ein nicht unerheblicher Teil auf die Pixelpipelines. Eine ALU/TMU kombination dürfte deshalb bei so 3-4 Mio liegen. Für die zusätzlichen 3*8 Einheiten dürften dann so etwa 72- 96 Mio zusätzliche Transitoren anfallen. *alles natürlich IMO*

Was ich allerdings mit Sicherheit sagen kann. Je geringer der Zieltakt einer Schaltung desto weniger Pipelinestufen braucht man desto weniger Transitoren braucht man. Denn für jede Pipelinestufe die man hinzufügt braucht man pro logischem Signal das von einer Stufe zur nächsten gehen muss eine taktgesteuerte Speicherzelle.

Unreal Soldier
2003-04-26, 15:16:30
@OW
Ich muss deine ergebnisse zustimmen, denn noch mit den letzten WHQL weder mit den aktuellsten Treiber von 28.02.03 konnte ich auf meiner G200 testen.

Nur bei §d MArks konnte ich unter 1024x768x16 den ersten bench mit dem Auto in Low Details durchlaufen und dann ist der PC zugefroren.

Axel
2003-04-26, 16:18:08
Bei den Koreanern (http://www.darkcrow.co.kr/Review/Review_Content.asp?board_idx=152&contentpage=3) gibt es weitere Bilder der P750. Darauf ist zu erkennen, daß der Speicher 3.3ns hat.

RyoHazuki
2003-04-26, 16:53:33
Danke Demirug.

Jetzt kann ich auch mal richtig beurteilen. Wieviel Transistoren wären dann deiner meinung nach realistisch ?

*Dieser Post ist NICHT ironisch gemeint oder sonstwas, die meinung und die kenntnisse von verschiedenen leuten (Demirug) ist mir wichtig*

Das sind die leute die uns dumme aufklären.

Demirug
2003-04-26, 17:20:47
Originally posted by RyoHazuki
Danke Demirug.

Jetzt kann ich auch mal richtig beurteilen. Wieviel Transistoren wären dann deiner meinung nach realistisch ?

*Dieser Post ist NICHT ironisch gemeint oder sonstwas, die meinung und die kenntnisse von verschiedenen leuten (Demirug) ist mir wichtig*

Das sind die leute die uns dumme aufklären.

Also die genannten 200 Mio würde ich mal als unteres Limit für den von dir angedachten Chip sehen da meine 3-4 Mio pro TMU/ALU Einheit doch sehr optimistisch sind. Ein anderes Problem das es aber in Verbindung mit den 32 TMUs noch gibt ist das diese auch mit Daten versorgt werden müssen da dürfte ein 256 Bit Bus (mit Chiptakt) schon etwas knapp werden.

PS: Das mit Dumm möchte ich nicht gehört haben. Dumm ist nur wer dummes tut und nichts daraus lernt.

Schnitzl
2003-04-26, 18:01:40
Originally posted by Unreal Soldier
@OW
Ich muss deine ergebnisse zustimmen, denn noch mit den letzten WHQL weder mit den aktuellsten Treiber von 28.02.03 konnte ich auf meiner G200 testen.

Nur bei §d MArks konnte ich unter 1024x768x16 den ersten bench mit dem Auto in Low Details durchlaufen und dann ist der PC zugefroren.
Welches BS hast du ?
Also unter W9x hatte ich keinerlei Probleme dieser Art.
versuch mal hier
http://www.matrox.com/mga/support/drivers/previous/prv_drv.cfm
5.52 oder 5.41 - den hatte ich glaube recht lang

MfG

Doomtrain
2003-04-26, 20:40:26
Originally posted by Demirug


Also die genannten 200 Mio würde ich mal als unteres Limit für den von dir angedachten Chip sehen da meine 3-4 Mio pro TMU/ALU Einheit doch sehr optimistisch sind.

Danke Demirug, dann lag ich mit meinen 200-250mio Transistoren ja gar nicht so falsch.

Schönen Abend noch.

ow
2003-04-26, 21:01:40
Originally posted by Unreal Soldier
@OW
Ich muss deine ergebnisse zustimmen, denn noch mit den letzten WHQL weder mit den aktuellsten Treiber von 28.02.03 konnte ich auf meiner G200 testen.

Nur bei §d MArks konnte ich unter 1024x768x16 den ersten bench mit dem Auto in Low Details durchlaufen und dann ist der PC zugefroren.

hi:)

ist zwar immer noch OT hier;), aber gefreezed is bei mir nix. die 3DMarks 2000/2001SE laufen anstandslos durch. aber eben mit bildfehlern, s.a. pic

und: bin jetzt auf dem 6.22 treiber, mit dessen ICD läuft Q3 fehlerfrei (Rauch ist transparent).

Doomtrain
2003-04-26, 21:05:18
ow, was verlagst du denn von einer "so" alten Karte? Der Chip ist von 1998 wenn ich mich nicht irre. In 4einhalb Jahren läuft auf einer GeForce4 auch nix mehr anständig.

StefanV
2003-04-26, 21:08:29
Originally posted by Doomtrain
ow, was verlagst du denn von einer "so" alten Karte? Der Chip ist von 1998 wenn ich mich nicht irre. In 4einhalb Jahren läuft auf einer GeForce4 auch nix mehr anständig.

Das Frag ich mich auch :|

Ein Wunder, daß der 3DMark 01 überhaupt so gut auf 'ner Banshee läuft...

Bei 'ner Riva128 wollter der 01er garnicht erst starten, IIRC...

zeckensack
2003-04-26, 21:31:24
Originally posted by Stefan Payne


Das Frag ich mich auch :|

Ein Wunder, daß der 3DMark 01 überhaupt so gut auf 'ner Banshee läuft...

Bei 'ner Riva128 wollter der 01er garnicht erst starten, IIRC... Die Riva128 wird auch vom 'unified'-Treiber nicht unterstützt, wodurch sie ziemlich schlimm dran ist.

Sagen wir's mal so: Riva128, heutzutage = Stück Dreck

Auf 'ner RivaTNT dagegen läuft auch heute noch so ziemlich alles sauber, was mit 99%iger Wahrscheinlichkeit am weiterhin gepflegten Treiber liegt ;)

RyoHazuki
2003-04-26, 22:52:24
es liegt alles nur am treiber support.

Der TNT ist auch nicht wirklich Viiiieeeeelll schneller als der Riva128.

zeckensack
2003-04-26, 23:01:13
Originally posted by RyoHazuki
es liegt alles nur am treiber support.

Der TNT ist auch nicht wirklich Viiiieeeeelll schneller als der Riva128. In Q2/Q3-Games mindestens doppelt so schnell IIRC.

StefanV
2003-04-27, 00:01:25
Originally posted by zeckensack
Die Riva128 wird auch vom 'unified'-Treiber nicht unterstützt, wodurch sie ziemlich schlimm dran ist.

Sagen wir's mal so: Riva128, heutzutage = Stück Dreck

Auf 'ner RivaTNT dagegen läuft auch heute noch so ziemlich alles sauber, was mit 99%iger Wahrscheinlichkeit am weiterhin gepflegten Treiber liegt ;)

1. die Matrox Treiber sind auch 'Unified' :)

2. nicht nur heute...

3. ja, weil die Games auf NV Harfware optimiert sind....

zeckensack
2003-04-27, 00:03:38
Originally posted by Stefan Payne
2. nicht nur heute...

3. ja, weil die Games auf NV Harfware optimiert sind.... Ach komm, Stefan, lass gut sein.

ow
2003-04-27, 00:28:28
Originally posted by Doomtrain
ow, was verlagst du denn von einer "so" alten Karte?

Fehlerfreie Darstellung dessen, wozu der Chip in der Lage ist.
Nicht mehr und nicht weniger erwarte ich von ALLEN Karten (ja ich weiss, meine Ansprüche sind hoch:D).


Der i740 ist ein schönes Beispiel für anständige Treiber. Der stellt mit seinem letzten und immerhin 4 Jahre alten Treiber alle 3DMarks bis zum 20001 fehlerfrei dar.
Und die HW-Fähigkeiten des i740 sind noch etwas begrenzter als die des G200.

ow
2003-04-27, 00:31:34
Originally posted by zeckensack

Auf 'ner RivaTNT dagegen läuft auch heute noch so ziemlich alles sauber, was mit 99%iger Wahrscheinlichkeit am weiterhin gepflegten Treiber liegt ;)

Jo, so ist es.

Für die 3DMarks braucht´s da aber auch keine aktuellen. Ein Deto aus den Jahren 98/99 reicht für fehlerfrei Darstellung.

Ich kenne überhaupt nur wenige Karten, die die 3DMarks nicht fehlerfrei darstellen, und da sind´s eher HW-limitierungen (zB. S3virge, Permedia2).

ow
2003-04-27, 00:34:12
Originally posted by Stefan Payne


1. die Matrox Treiber sind auch 'Unified' :)


Sind sie nicht:

Schnitzl
2003-04-27, 03:08:40
hi,

Frage: was soll uns dieses Bild nun sagen ?
Heisst das, dass TNT und GF4 von der gleichen DLL angesprochen werden ?

Hast du mal im Tech-Support-Forum bei Matrox nachgefragt ?

MfG

Demirug
2003-04-27, 10:45:26
Originally posted by Schnitzl
hi,

Frage: was soll uns dieses Bild nun sagen ?
Heisst das, dass TNT und GF4 von der gleichen DLL angesprochen werden ?

Hast du mal im Tech-Support-Forum bei Matrox nachgefragt ?

MfG

ja alles von der TNT bis zur FX wird von der gleiche DLL (eine für D3D und eine für OpenGL) sowie einem Systemtreiber (sys) angesprochen.

Das was NVIDIA als 'Unified' bezeichnet ist das sowohl der der OpenGL wie auch der D3D Treiber vollkommen Hardware unabhängig sind. Beide Treiber stellen lediglich einen Wrapper da welcher auf die NVIDIA internen API aufsetzt. Diese interne API spiegelt als OOP Model die Einheiten des Chips wieder. Benutze mehrer Chip identische Einheiten wird der Treiber auch ein Object der gleiche Klassen für jeden dieser Chips erzeugen. Bei Einheiten die erweitert wurde gibt es dann dementsprechende Vererbungen.

Schnitzl
2003-04-27, 12:17:55
Ok, aber ich würd mal sagen, solange der "unified" Treiber(ob nun von Matroc, nVidia oder sonstwem) für alle Modelle ist, ist das nur ne Spitzfindikeit.
Dem User/Anwender ist es egal, ob im Treiber selber dann eine, zehn oder hundert dateien sind, oder ?

ow, Hast du mal im Tech-Support-Forum bei Matrox nachgefragt ?

Demirug
2003-04-27, 12:29:01
Originally posted by Schnitzl
Ok, aber ich würd mal sagen, solange der "unified" Treiber(ob nun von Matroc, nVidia oder sonstwem) für alle Modelle ist, ist das nur ne Spitzfindikeit.
Dem User/Anwender ist es egal, ob im Treiber selber dann eine, zehn oder hundert dateien sind, oder ?

Es gibt einen entscheidenen Unterschied. Wenn nun ein IHV zum Beispiel einen Treiberfehler in der Interpretation eines D3D Kommandos (D3D arbeit intern mit commando Buffern) hat so muss NVIDIA diesen genau einmal beseitigen. Hat man für jeden Chip eigene DLLs und zieht diesen Fehler schon eine Zeitlang mit muss man jeden Chip-Treiber prüfen ob der Fehler dort vorhanden ist und in beseitigen. Gerade bei älteren Chips (die man nicht mehr verkauft) ist da die Motivation nicht immer sehr hoch.

ATI ist mit der R200/R300 Rheie auch dazu übergegangen alle Chips mit einer Treiberdatei abzuhandeln wobei ich nicht weiss wie hoch dort der gemeinsam genutzten Teil ist.

PS: Der NVIDIA Treiber für Linux wird aus der gleichen Codebasis wie die Windows Treiber erzeugt und soll zu über 95% identisch sein.

ow
2003-04-27, 13:04:28
Originally posted by Schnitzl


ow, Hast du mal im Tech-Support-Forum bei Matrox nachgefragt ?

Nein, wozu soll das gut sein?
Meinst du die würden am G200 Treiber noch was basteln, weil dieser unter D3D fast überall fehlerhaft läuft?

Ich glaube nicht, dass Matrox noch im geringesten am D3D part des G200 treiber interessiert ist.

Die sollen sich imo auch schön auf ihre aktuelleren Produkte konzentrieren, da haben sie sicher genug zu tun.

ow
2003-04-27, 13:07:53
Originally posted by Demirug


PS: Der NVIDIA Treiber für Linux wird aus der gleichen Codebasis wie die Windows Treiber erzeugt und soll zu über 95% identisch sein.


Das ist er.
Der Linux OGL ICD bietet exakt denselben Funktionsumfang und Extensions wie die entsprechenden Windows Pendants.

NV ist da übrigens immer recht aktuell, der Linux Treiber ist schon in version 43.63 verfügbar:
http://www.nvidia.com/view.asp?IO=linux_display_ia32_1.0-4363

Unreal Soldier
2003-04-27, 13:28:52
ICh hab für doe Test auf dem Testrechner WinMe draufgehabt.

Ich hab es nochmal durchlaufen lassen und hat mit den letzten WHQl doch gegangen, aber nur einpaar Bildfaheler waren schon drinne.

Schnitzl
2003-04-27, 13:41:04
Originally posted by Demirug

Es gibt einen entscheidenen Unterschied. Wenn nun ein IHV zum Beispiel einen Treiberfehler in der Interpretation eines D3D Kommandos (D3D arbeit intern mit commando Buffern) hat so muss NVIDIA diesen genau einmal beseitigen. Hat man für jeden Chip eigene DLLs und zieht diesen Fehler schon eine Zeitlang mit muss man jeden Chip-Treiber prüfen ob der Fehler dort vorhanden ist und in beseitigen. Gerade bei älteren Chips (die man nicht mehr verkauft) ist da die Motivation nicht immer sehr hoch.
gut, das ist natürlich ein deutlicher Vorteil.
Interessant finde ich aber trotzdem, dass die DLL bei nVidia sehr grob betrachtet so gross ist wie bei Matrox die DLL´s für G200/400/550 zusammen.
Kann es nicht sein, dass nVidia das nur zu einer Datei zusammengefasst hat ? Der FX-Chips hat ja schliesslich nicht mehr viel mit dem TNT2 zu tun...

MfG

ow
2003-04-27, 13:46:18
Originally posted by Schnitzl

gut, das ist natürlich ein deutlicher Vorteil.
Interessant finde ich aber trotzdem, dass die DLL bei nVidia sehr grob betrachtet so gross ist wie bei Matrox die DLL´s für G200/400/550 zusammen.
Kann es nicht sein, dass nVidia das nur zu einer Datei zusammengefasst hat ? Der FX-Chips hat ja schliesslich nicht mehr viel mit dem TNT2 zu tun...

MfG

Die NV Chips bieten einen wesentlich grösseren Funktionsumfang als die Matrox Chips. Da dürften auch die Dateien grösser werden. Mit immer mehr Chipgenerationen wird der Umfang ebenfalls etwas wachsen.

Nein, NV hat da nix zusammengefasst. Wie NVs unified funzt hat Demi ja oben schon erklärt.

Dagegen spricht auch, dass sich Treiberfehler meist auf mehrere Chipgenerationen auswirken und entsprechende Fixes ebenso.

Schnitzl
2003-04-27, 13:46:39
Originally posted by ow

Nein, wozu soll das gut sein?
Naja, solange Matrox nichts von dem Fehler "weiss", können sie ihn auch nicht beheben...Matrox testet die 3DMarks soweit ich weiss nicht, da sie nicht viel davon halten ;)
Meinst du die würden am G200 Treiber noch was basteln, weil dieser unter D3D fast überall fehlerhaft läuft?
Ja.

Ich glaube nicht, dass Matrox noch im geringesten am D3D part des G200 treiber interessiert ist.
Ich denke mal da liegst du falsch.

MfG

ow
2003-04-27, 13:52:11
Originally posted by Schnitzl

Naja, solange Matrox nichts von dem Fehler "weiss", können sie ihn auch nicht beheben...Matrox testet die 3DMarks soweit ich weiss nicht, da sie nicht viel davon halten ;)

Ja.

Ich denke mal da liegst du falsch.

MfG


Es geht ja nicht nur um 3DMarks.
Hab gestern zB. auch CMR2 Demo und NFSHP2 Demo getestet. In beiden stimmt Texturmapping/ oder -adressierung nicht. Die Texturen sind verzerrt und tauchen auch an Stellen auf, an denen sie nix zu suchen haben.
Da funktionieren also teilsgrundlegend Funktionen nict, wie das einfache Aufbringen einer Textur auf einem Polygon.

Bin seit heute morgen jetzt aber wieder (zur ABwechslung) auf Radeon8500 (9100mod) unterwegs so dass ich die screenies dazu vorerst schuldig bleiben muss.

Schnitzl
2003-04-27, 13:57:36
Originally posted by ow

Die NV Chips bieten einen wesentlich grösseren Funktionsumfang als die Matrox Chips.
Nun wirds interessant :D
Was kann z.B. der TNT, was der G200 nicht kann.
Dito mit TNT2/G400.
Soweit ich weiss kann der G400 EBM, der TNT2 nicht.

MFG

/Edit:
"Es geht ja nicht nur um 3DMarks.
Hab gestern zB. auch CMR2 Demo und NFSHP2 Demo getestet. In beiden stimmt Texturmapping/ oder -adressierung nicht. Die Texturen sind verzerrt und tauchen auch an Stellen auf, an denen sie nix zu suchen haben.
Da funktionieren also teilsgrundlegend Funktionen nict, wie das einfache Aufbringen einer Textur auf einem Polygon."

Falls das wirklich so ist, ein Gund mehr den Support mal zu stressen ...

Schnitzl
2003-04-27, 16:46:06
Frage:
wie hast du denn den 3DMark99 und 3DMark2000 zum laufen gebracht ?
Hab hier ne alte TNT2 und wollte mal testen, aber es kommt die Meldung dass DX6 fehlt...

MfG

Andre
2003-04-28, 11:00:39
Originally posted by Stefan Payne
3. ja, weil die Games auf NV Harfware optimiert sind....

Ohje, ohje.
Bitte, o bitte, nutze doch mehr das Spielwiese-Forum.

Schnitzl
2003-04-28, 12:03:19
Immerhin ist Stefan der einzige der versucht hat mir zu helfen (per PM)

ansonsten sag ich nur z.B. Neverwinter Nights ;)

Frank
2003-04-28, 13:55:21
Originally posted by Schnitzl
Soweit ich weiss kann der G400 EBM, der TNT2 nicht.

Soweit ich weiss kann der G400 auch echtes Trilineares Filtering, der TNT2 nicht.

ow
2003-04-28, 14:01:04
Originally posted by Schnitzl

Nun wirds interessant :D
Was kann z.B. der TNT, was der G200 nicht kann.
Dito mit TNT2/G400.
Soweit ich weiss kann der G400 EBM, der TNT2 nicht.




auweia, das ist ne ganze Latte an Funktionen, die ein TNT beherrscht und ein G200 nicht.
ich werd's spaeter hier mal auflisten, aus dem kopf ist das viel zu viel.


*und mein cookie is auch schon wieder wech*:(

ow
2003-04-28, 14:09:39
Originally posted by Schnitzl
Frage:
wie hast du denn den 3DMark99 und 3DMark2000 zum laufen gebracht ?
Hab hier ne alte TNT2 und wollte mal testen, aber es kommt die Meldung dass DX6 fehlt...

MfG


Oehm.... die laufen bei mir seit ihrer Erstinstallation aus Win98.
Auf allen Karten, die ich getestet hab und auch unter DX7..9.

Ob sich die alten 3DMarks allerdings noch installieren lassen unter den neuen DX-Versionen weiss ich nicht (und hab auch keine Lust das rauszufinden:D).

ow
2003-04-28, 14:12:44
Originally posted by Frank

Soweit ich weiss kann der G400 auch echtes Trilineares Filtering, der TNT2 nicht.


Echt trilinear filtern koennen die TNTs nur bei Singletexturing, bei Multitexturing wird auf mipmap-dithering umgeschaltet.

Und btw. kann der G200 auch echt trilinear filtern.
Unter D3D arbeiten die Filter (nicht nur trilinear) aber nicht ganz sauber, wie man mit Demis D3D-AF-Tester zeigen kann. Unter OGL gibt's keine Probs (s. Xmas AF-Tester).

Schnitzl
2003-04-28, 14:45:35
hi ow,

brauchst nicht alles auflisten, es ging mir nur um den Satz
"Die NV Chips bieten einen wesentlich grösseren Funktionsumfang als die Matrox Chips."
welcher so pauschal imho einfach nicht stimmt.
Ich denke mal das hält sich grob die Waage, wenn man mal die aktuellen Grafikchips weglässt.

Hab gestern Abend noch etwas getestet mit der TNT2:
Templemark : startet nicht - Fehlermeldung
Villagemark : 0 pfs aber sah gut aus :D
3DWinbench : nach der Hälfte abgebrochen weils mir zu lange gedauert hat ^^
in der Liste waren aber doch ein paar Dinge die nicht korrekt dargestellt wurden.

Lange Rede kurzer Sinn :
ich schätze mal man findet bei jeder Karte Dinge, die nicht funktionieren bzw. falsch dargestellt werden, die Frage ist nur wie relevant das ist.
Sprich : kein G200-Besitzer wird imho 3DMarks laufen lassen oder NFSHP2 zocken.

Wenn einer die obengenannten Karten kauft, um UT2003 und später Doom3 zu spielen, denn ist im echt nicht mehr zu helfen...so jemand kauft sich auch ein Porsche 911 und fährt dann bei ner Geländeralley mit ;)

Bin mal gespannt, ob Matrox weiterhin so überleben kann...

ow
2003-04-28, 15:10:05
Originally posted by Schnitzl
hi ow,

brauchst nicht alles auflisten, es ging mir nur um den Satz
"Die NV Chips bieten einen wesentlich grösseren Funktionsumfang als die Matrox Chips."
welcher so pauschal imho einfach nicht stimmt.
Ich denke mal das hält sich grob die Waage, wenn man mal die aktuellen Grafikchips weglässt.

Nee, das haelt sich nicht die Waage.

Dem G200 fehlen (jetzt mal geschaetzt) etwa 16-25 moegliche (von 100)Kombinationen des Texturblending, min. 10 Moeglichkeiten der Texturmodulation (zB. add, addsigned, modulate2x, modulate4x,...)und "mirror texture addressing" (gerade letzteres hat mich doch etwas irritiert, bis auf den S3Virge(!) ist mir bislang kein Chip untergekommen, der das nicht beherrscht).

Perspektivische Korrektur von Color, Fog, Alpha, Specular kann der G200 auch nicht, der TNT schon (btw. hier ist der TNT sogar einem Radeon1 voraus, der kann da naemlich auch nicht mehr als der G200)

Von og. Features her ist der G200 etwa Stand des Intel i740, aber weit von einem TNT entfernt.



Hab gestern Abend noch etwas getestet mit der TNT2:
Templemark : startet nicht - Fehlermeldung
Villagemark : 0 pfs aber sah gut aus :D
3DWinbench : nach der Hälfte abgebrochen weils mir zu lange gedauert hat ^^
in der Liste waren aber doch ein paar Dinge die nicht korrekt dargestellt wurden.



Der Templemark braucht Bumpmapping, afaik entweder EMBM oder DOT3. Er startet auf keiner Karte, die nicht min. eins dieser features beherrscht.


Lange Rede kurzer Sinn :
ich schätze mal man findet bei jeder Karte Dinge, die nicht funktionieren bzw. falsch dargestellt werden, die Frage ist nur wie relevant das ist.
Sprich : kein G200-Besitzer wird imho 3DMarks laufen lassen oder NFSHP2 zocken.


Das mag ja sein.
Das aendert aber nix am Fehlverhalten der G200 Treiber in diesen Faellen.
btw. waere NFSHP2 auf der G200 knapp spielbar von der Performance her, CMR2 wuerde flutschen wie nix (das laeuft sogar auf meinem Permedia2 richtig gut und der kann noch weit weniger (Leistungt&Features) als der G200).

Lange Rede kurzer Sinn: es gehst mir hier nicht um Performancebetrachtungen sondern rein um die Treiberqualitaet, sprich -fehlerfreiheit. Ich hab das ja oben schonmal gesagt: auch ein Intel i730 ist kein Performancewunder, die Treiber sind aber wirklich gut. Keine Fehler in den 3DMarks oder CMR2 oder NFSHP2.
(btw. just4info: der G200 Treiber meldet sich als DX7 Treiber, der i740 Treiber ist DX6, der Permedia2 gar nur ein DX5 Treiber)



Wenn einer die obengenannten Karten kauft, um UT2003 und später Doom3 zu spielen, denn ist im echt nicht mehr zu helfen...so jemand kauft sich auch ein Porsche 911 und fährt dann bei ner Geländeralley mit ;)

Bin mal gespannt, ob Matrox weiterhin so überleben kann...


Ja, Matrox macht mir da auch Sorgen. Ernsthafte Ambitionen, um auf dem Gamer-Markt Fuss zu fassen sehe ich da derzeit jedenfalls nicht.
Leider.

Schnitzl
2003-04-28, 15:48:49
Originally posted by ow

Nee, das haelt sich nicht die Waage.

Dem G200 fehlen (jetzt mal geschaetzt) etwa 16-25 moegliche (von 100)Kombinationen des Texturblending, min. 10 Moeglichkeiten der Texturmodulation (zB. add, addsigned, modulate2x, modulate4x,...)und "mirror texture addressing" (gerade letzteres hat mich doch etwas irritiert, bis auf den S3Virge(!) ist mir bislang kein Chip untergekommen, der das nicht beherrscht).

Perspektivische Korrektur von Color, Fog, Alpha, Specular kann der G200 auch nicht, der TNT schon (btw. hier ist der TNT sogar einem Radeon1 voraus, der kann da naemlich auch nicht mehr als der G200)

Von og. Features her ist der G200 etwa Stand des Intel i740, aber weit von einem TNT entfernt.
hm, viele Fachausdrücke, bin leider kein 3D-Programmierer ^^
Als Anwender aber frag ich mich, ob ich das alles benötige, zumal ich mich in meiner "G200-Zeit" an keine Probleme erinnern kann bis auf die Geschwindigkeit bei Games...
(wenn man von ein paar Glide-Spielen absieht, bei denen alle nicht-3dfx-Karten Probleme machten)


Das mag ja sein.
Das aendert aber nix am Fehlverhalten der G200 Treiber in diesen Faellen.
(...)
Kannst du dir eventuell ne G400 besorgen/leihen?
Würd mich interessieren ob es da "besser" ist.

Ja, Matrox macht mir da auch Sorgen. Ernsthafte Ambitionen, um auf dem Gamer-Markt Fuss zu fassen sehe ich da derzeit jedenfalls nicht.
Leider.
Der Erfolg der neuen Karten wird imho davon abhängen, ob das Banding-Problem gefixt ist und ob Matrox wieder an alte Qualität anknüpfen kann, was das Ausgangssignal betrifft.
Dadurch, dass die P-II eingestelltworden ist, verspielt sich Matrox meiner Meinung nach sehr sehr viel.
Wenn die neuen Karten nicht wenigstens auf R8500-Niveau kommen, taugen sie nicht mal für den Gelegenheitsgamer, alle anderen können dann weiterhin auch bei ner G550 bleiben.
MfG

StefanV
2003-04-28, 16:06:31
Originally posted by Schnitzl
Kannst du dir eventuell ne G400 besorgen/leihen?
Würd mich interessieren ob es da "besser" ist.

Ja, da wurde allerhand gefixt.
Ich hab z.B. bei keinem 3DMark Problme gehabt.

@ow

Du solltest nicht vergessen, daß die G200 Palettet Texturing wirklich beherrscht, der TNT nicht.

ow
2003-04-28, 18:47:58
Originally posted by Stefan Payne

@ow

Du solltest nicht vergessen, daß die G200 Palettet Texturing wirklich beherrscht, der TNT nicht.

a) sind jetzt 8 Bit paletted Texturen nicht wirklich von Interesse und

b) hab ich da so meine Zweifel.

-> OGL Extensions des G200:

GL_Autodesk_facet_normal
GL_EXT_abgr
GL_EXT_bgra
GL_EXT_compiled_vertex_array
GL_EXT_packed_pixels
GL_EXT_stencil_wrap
GL_EXT_texture_edge_clamp
GL_EXT_vertex_array
GL_KTX_buffer_region
GL_WIN_swap_hint
WGL_EXT_swap_control

Wo ist denn die GL_EXT_paletted_textures?

ow
2003-04-28, 18:57:54
Originally posted by Schnitzl

hm, viele Fachausdrücke, bin leider kein 3D-Programmierer ^^
Als Anwender aber frag ich mich, ob ich das alles benötige, zumal ich mich in meiner "G200-Zeit" an keine Probleme erinnern kann bis auf die Geschwindigkeit bei Games...
(wenn man von ein paar Glide-Spielen absieht, bei denen alle nicht-3dfx-Karten Probleme machten)


In der Praxis wurde wohl 89% der Fähigkeiten eines TNT nie genutzt. Ist ja auch verständlich, da als Basis der Programmierer immer der grösste gemeinsame Nenner genutzt wird, sprich: die Funktionen, die praktisch alle Chips beherrschen.
Von den gemeldeten DX Caps-Bits her liegt der G200 jedenfalls kaum über Intel i740 Niveau, eine TNT hat da wirklich schon einiges mehr zu bieten (was allerdings auch Chips wie Banshee, Rage oder sogar Radeon1 nicht beherrschen).


Kannst du dir eventuell ne G400 besorgen/leihen?
Würd mich interessieren ob es da "besser" ist.


Doch, ich denke mein Interesse an Matrox ist schon irgendwie erwacht (auch diese negative Erfahrung mit meiner ersten Matrox jetzt schreckt mich da nicht, ganz im Gegenteil: macht mich eher neugierig).;)
Ich werde mir wohl eine G400 besorgen.


Der Erfolg der neuen Karten wird imho davon abhängen, ob das Banding-Problem gefixt ist und ob Matrox wieder an alte Qualität anknüpfen kann, was das Ausgangssignal betrifft.
Dadurch, dass die P-II eingestelltworden ist, verspielt sich Matrox meiner Meinung nach sehr sehr viel.
Wenn die neuen Karten nicht wenigstens auf R8500-Niveau kommen, taugen sie nicht mal für den Gelegenheitsgamer, alle anderen können dann weiterhin auch bei ner G550 bleiben.
MfG

Es sieht derzeit leider nicht so aus, als ob Matrox gewollt (oder vielleicht auch fähig) wäre, ernsthaft im Gamer-Segment Fuß zu fassen. IIRC gab es gar schon Gerüchte um Schliessung der Graka-Abteilung (auch wenn ich auf absehbare Zeit da mal nicht dran glaube).

Hoffen wir das beste für Matrox. Denn Konkurrenz belebt das Geschäft. Und mit nur zwei grossen Herstellern hat man auf Dauer doch nur die Wahl zwischen Pest und Cholera.:D

Lambo-Fan
2003-04-28, 23:55:18
Ich hatte auch mal 'ne G200 und anschließend eine G400Max. Abgesehen von "ein paar" Geschwindigkeitsproblemen hatte ich keine größeren Schwierigkeiten. Die G400Max hatte ich von 1999 bis Januar 2003. NFS HP2 läuft wohl kaum auf einer G200. Das war schon auf der G400Max mehr als langsam. 3DMark 2001 SE hatte ich mit der G200 nie getestet. Auf der G400Max lief es jedenfalls (bei mir) fehlerfrei.

P.S: Die G400Max ist zur Zeit in meinem Internet-Rechner. Die neuen Treiber waren allerdings wirklich nicht mehr so der Hit...