PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Matrox - Matrox & HighEnd Karten???


Gast
2007-08-03, 02:12:47
Hallo freunde...

was ist eigentlich mit Matrox los, keine HighEnd Karten mehr??? damals die Parhelia, um die wurde viel rummel gemacht und sollte viel können und wurde auch viel Demonstriert und jetzt, ist jetzt alles schluss, die totale stille???

Ich würde mich echt freuen wieder von Matrox konkurrenz fähig Produkte zu sehen, was meint ihr?? kommt da noch was von Matrox für die Gamer/User???



MFG
Gast

Gast
2007-08-03, 02:28:14
nein.

Fetza
2007-08-03, 03:12:32
Das problem ist doch, das matrox garnicht ein entwicklerteam mit entsprechender erfahrung haben wird, das in punkte 3d-grafik mit nv oder ati gleichziehen kann. Du musst dir doch nur überlegen, wie groß der entwicklungs und know-how vorsprung für die beiden großen ist. Da kriegt matrox kein bein an die erde, also bleiben sie lieber bei der entwicklung hochwertiger 2d-lösungen.

Gast2
2007-08-03, 03:42:34
Sie müssen ja nicht alle überbieten, es würde schon reichen, wenn sie sich im LowEnd oder Mittelfeld durchsetzen können, was selbst ein unerfahrenes Team schafft.

Hauptproblem dürfte bei Matrox das Geld sein. Ein Markt abzudecken, der bereits große Konkurrenz hat, ist immer schwierig und lohnt sich vorallem für die Einsteiger kaum. Wenn statt 2 nun 3 um die Krone kämpfen, dann ist der Preiskampf auf Dauer ziemlich ruinös. Das könnte man sich nur leisten, wenn man noch andere Standbeine hat, die gut laufen. Matrox verdient halt keine Milliarden mit anderen Dingen..

tombman
2007-08-03, 03:54:02
Ohne HighEnd hast im Endeffekt auch kein LowEnd...

Nvidia und Amd generieren ja aus ihren HighEnd Lösungen erst die kleineren Karten, indem man einfach 1/2, 1/4 usw der Leistung nimmt.

Haste mal gesehen was Nvidia und co für Rechenfarmen haben? Da geht einem einer ab, wenn man das sieht :D

Das holt keiner auf... ;)

p.s. man kann derzeit ja froh sein, wenn AMD mit Nvidia mithalten kann ;D;D

Fetza
2007-08-03, 06:41:12
Mann nehme noch die krassen neuen videofunktionen dier mid-range chips hinzu, sowas wächst nicht auf bäumen, wie lange sind ati und nv da schon drann gewesen?

Oder denkt mal nur an s3 was die für probleme haben mit ihren chips einigermaßen was zu reissen, es bleibt einfach das problem des gewaltigen forschungs/know-how levels.

China braucht auch noch mindestens 20 jahre, bis sie genug technologieklau... äh forschung geleistet haben um gute autos zu bauen :D

BlackBirdSR
2007-08-03, 07:50:12
Matrox ist im Vergleich kein besonders großes Unternehmen. Dementsprechend schwierig und risikoreich gestaltet sich ein Wettkampf mit ATI und nvidia.
Man hat eine relativ unangefochtene Nische gefunden, die man ausnutzen kann. Dabei sind 3D-Funktionen kaum von Bedeutung.

Es würde Matrox einfach unnötig Geld, Zeit und Existenz kosten. Und ich denke niemand macht sich mehr was vor, dass es einfach wäre einen guten Treiber für 3D-Karten zu programmieren. Intel, S3, SiS, XGI, ATI, nvidia etc haben alle bewiesen, wie schwer es auf der einen Seite ist, und wie schnell das Produkt dadurch den Bach runter gehen kann.

Ich persönlich denke einfach, dass Matrox vielleicht keinen Sinn mehr darin sieht, für diesen Markt Geld aufs Spiel zu setzen.

Radeonator
2007-08-03, 08:54:04
Die Parhelia krankte doch an unausgewogenen Features bei zu wenig roh power. S3 hat eine schlechte Wahl beim Speicherkontroler und diverse kleine HW Bugs und XGI hat versucht, die Community zu "verarschen" bzw blenden.

Es ist alles andere als einfach, im Midrange Bereich und gerade da, gegen AMD-ATi und nV was zu reissen. Selbst intel könnte das nicht ohne weiteres, allerdings sind die ja auch eher an OEMs interessiert.

=Floi=
2007-08-03, 09:02:10
aber zumindest könnte mal ein "refresh" (4 bis 8 fache leistung) der karten kommen
so gehen sie doch unter

AnarchX
2007-08-03, 09:06:24
aber zumindest könnte mal ein "refresh" (4 bis 8 fache leistung) der karten kommen
Von Matrox bzw. der Parhelia?
Ohne PS2.0 ist die Karte schonmal wertlos, wegen Vista. Und besser sollte man gleich auf DX10 setzen, da hier bald auch der Markt mit DX10-IGPs geflutet wird.
Aber dafür fehlt Matrox das Know-How bzw. geht man damit ein viel zu hohes Risiko ein.
Offensichtlich gab es Pläne bei Matrox für eine DX9-Vista-Lösung, welche aber offensichtlich aus genannten Gründen gecancelt wurde:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=325845&highlight=Matrox


so gehen sie doch unter
Wie BlackBirdSR schon erörterte, es ist eher das Gegenteil. Mit den aktuellen Produkten wie TH2Go hat man eine relativ sichere Marktnische gefunden.

=Floi=
2007-08-03, 09:20:24
Hallo
mit refresh meinte ich natürlich einen richtig aufgebohrten chip oder eine neukonstruktion
nur der name sollte gleich bleiben aber auf dem aktuellen stand der technik!
man könnte ja gleich eine dx10.1 karte bringen

wenn matrox so weitermacht geht zumindest so die grafiksparte unter

AnarchX
2007-08-03, 09:29:29
wenn matrox so weitermacht geht zumindest so die grafiksparte unter

Solang die anderen Hersteller nicht Multi-Monitor(>2) Lösungen bringen düfte Matrox relativ sicher sein und Matrox Graphics einen geringen, aber wohl auch stabilen Absatz ihrer teuren Lösungen haben.

Nach dem "Flop" der Parhelia hat sich nun Matrox halt endgültig aus den Consumermärkten verabschiedet.

Wer einen Dritten im Consumer-GraKa-Markt sehen will, sollte wohl eher in Richtung S3 bzw. Intel schauen.:wink:

Gast
2007-08-03, 09:42:43
Von Matrox werden wir wohl nie mehr HighEnd Karten sehen! :(
Das Comeback sollte ja mit der Parhelia geschehen. ;(

Was waren das noch Zeiten: "Matrox = Welt-Technologie-Führer!"
Oh man die hatten mit der G400, die schnellste Grafikkarte der Welt gehabt!
Bei Vorstellung war die G400 nicht nur die schnellste Karte der Welt, sondern auch die erste Karte die EBM beherrscht hat, was für ein unglaubliches Feature!

Dann die Parhelia, unglaublich erste Karte mit 256-Bit-DDR-Speicher-Interface und 20 Gigabytes pro Sekunde (GB/s) Speicherbandbreite!
Die Karte konnte schon Displacement Mapping und unterstützte VS 2.0!
Unglaublich diese Karte, keine Karte auf der Welt konnte so was, als die Parhelia rauskam.

Die G400 und die Parhelia, waren als Sie auf den Markt kamen, die fortschrittlichsten Karten die man für Geld kaufen konnten!
Die G400 war schnell, aber auch relativ teuer, später konterten 3DFX und NVidia.

Die Parhelia war teuer, aber nicht so extrem schnell wie die G400 damals zur Konkurrenz, als ATi den R300 auf der ATI-9700-Karte raus brachte, war alles für Matrox vorbei.
Nvidia konnte noch mit dem guten Ruf, an dumme Leute kauften Karten wie eine GeForce FX 5800.

GanjaBob
2007-08-03, 09:46:44
ich dachte die Parhelia hatte gute Rohpower, konnte aber aufgrund der schlechten softwareunterstützung diese nicht ganz ausspielen?

AnarchX
2007-08-03, 09:50:09
ich dachte die Parhelia hatte gute Rohpower, konnte aber aufgrund der schlechten softwareunterstützung diese nicht ganz ausspielen?

Nein, das Design war ziemlich daneben: 4x4(Pipelines x TMUs) und dann noch ein ununterteiltes 256Bit SI.

Hier gibt es Lesestoff:
http://www.3dcenter.org/artikel/parhelia/
http://www.3dcenter.org/artikel/parhelia_firstlook/
http://www.3dcenter.org/artikel/parhelia_theoretische_benchmarks/

Taigatrommel
2007-08-03, 10:28:50
Ich glaube nicht, dass Matrox das finanzielle Risiko für die Entwicklung von neuen Grafikchips für Spieler eingehen wird. Dazu ist die Konkurenz von nVidia und ATI zu groß. Gleichzeitig erinnern sich doch eh nur noch die etwas älteren Spieler an den vergangen Matrox Glanz, für Spieler die erst seit wenigen Jahren dabei sind, ist Matrox halt irgendein Newcommer. Damit fehlt dann irgendwo schonmal die Bekanntheit der Marke.

Da wird man sich wohl eher auf die aktuellen Stärken konzentrieren, anstatt irgendwelche Abenteuer zu unternehmen.

Pirx
2007-08-03, 12:00:37
Aber DX9 (10) werden sie wohl bald bringen müssen, sonst ist Schluss.

AnarchX
2007-08-03, 12:16:23
Aber DX9 (10) werden sie wohl bald bringen müssen, sonst ist Schluss.

Ob die Abnehmer von Matrox-Produkten diese Features wirklich brauchen?
Heute werden Produkte von Matrox Graphics hauptsächlich noch dort eingesetzt, wo eine hohe Bildqualität bei hoher Auflösung und mehreren Monitoren wichtig ist, v. a. im medizinischen Bereich, bei Grafikern und an Börsen- und Kassenterminals

StefanV
2007-08-03, 12:35:32
Die einzige Chance, die Matrox wirklich hat, ist auf PowerVR IP zu setzen, aber ob sie dann noch viel dran verändern dürfen (Triplehead brauchts ja), ist wieder 'ne andere Frage...

Selbst entwickeln wäre zu teuer, MGA hat nicht (mehr) die Ressourcen dafür, leider...
Nach der G400 ging irgendwie alles schief, da hätt man am Ball bleiben müssen, tat man aber leider nicht...

Ach, übrigens:
Die G400 konnte KEIN Mipmap Dithering, die hat wirklich Trilinear gefiltert, im Gegensatz zu ALLEN ANDEREN damals erhältlichen Produkten!

WinterBorn
2007-08-03, 13:55:26
Hi,

ihr dürft auch nicht vergessen, das matrox keine Aktiengesellschaft ist - was sich nur positiv auf die Produktqualität auswirkt :rolleyes:

Die Parhelia-Karten leisten unter VISTA ziemlich gute Dienste - alle Multimonitor-Features funktionieren (Grüße an NVidia an dieser Stelle)...genau wie unter 2k & XP. (Immerhin konnte matrox seinen Absatz im Q2/2007 um 30% im Vergleich zu Q2/2006 steigern - mit dem Verkauf von Grafikkarten mit 7-5 Jahre alten GPU :redface:) Mit den neusten Treibern funktioniert die VMR-Video-Wiedergabe auch gut (SE besser als HF).

Das Alter der MGA-Chips kommt leider bei Themen wie max. Auflösung oder HD-Wiedergabe zum Vorschein. Und es kann keine WDDM-Treiber für die Karten geben - was langfristig ein riesen Nachteil sein wird (die grössten Vorteile von WDDM sind übrigens nicht DX10 oder die AERO-GUI :wink:)

Es ergibt für matrox keinen Sinn, einen DX9-Chip zu entwickeln, der zwar die VISTA-GUI beschleunigen kann, aber in 4-5Jahren für nichts mehr zu gebrauchen ist.

OT: Im www wird ja ziemlich fleißig zwischen XP und VISTA (mit WDDM-Treiber) verglichen, was die Spieleleistung angeht.
Hat schon mal jemand diesen Vergleich gemacht, aber den XP-(XDDM)Treiber unter VISTA installiert? Als matrox-User muss ich das zwangsweise machen...es gibt aber auch keinen Leistungsunterschied....

Gast
2007-08-03, 14:16:42
Ach, übrigens:
Die G400 konnte KEIN Mipmap Dithering, die hat wirklich Trilinear gefiltert, im Gegensatz zu ALLEN ANDEREN damals erhältlichen Produkten!

Da bist du wohl offensichtlich falsch informiert, trilinear filtern können sogar so Gurkenchips wie der S3Virge oder Intel 740. Riva TNT und Rage128 sowieso.

Gast
2007-08-03, 15:33:56
Wie BlackBirdSR schon erörterte, es ist eher das Gegenteil. Mit den aktuellen Produkten wie TH2Go hat man eine relativ sichere Marktnische gefunden.

die ist aber nur sicher, so lange es die beiden großen zulassen.

einen weiteren RAMDAC zu verbauen ist transitormäßig zu vernachlässigen und benötigt auch kein großartiges know-how, und schon wäre TH2Go ein produkt dass niemand braucht.

Gast
2007-08-03, 15:36:36
Die Parhelia war teuer, aber nicht so extrem schnell wie die G400 damals zur Konkurrenz, als ATi den R300 auf der ATI-9700-Karte raus brachte, war alles für Matrox vorbei.

sie war nicht nur nicht extrem schnell, sondern extrem langsam, selbst eine uralte Geforce4 konnte nicht geschlagen werden.

Gast
2007-08-03, 15:38:03
Ob die Abnehmer von Matrox-Produkten diese Features wirklich brauchen?

gerade im medizinischen bereich ist für diverse visualisierungen ein ordentlicher bedarf an 3d-leistung vorhanden.

Schwarzmetaller
2007-08-03, 15:47:11
Hat sich überhaupt mal wer die Produktpalette von Matrox angeguckt? Consumer-Grafikkarten stehen da relativ weit hinten....und für medizinische Visualisierung scheint die Leistung der Matrox-Produkte durchaus zu reichen.

Es besteht kein Bedarf für eine Matrox-Highend-Consumer-Karte......fakt!

MFG
Schwarzmetaller

StefanV
2007-08-03, 16:02:15
sie war nicht nur nicht extrem schnell, sondern extrem langsam, selbst eine uralte Geforce4 konnte nicht geschlagen werden.
Mit FAA schon ;)

Und soo schlecht war sie auch nicht unbedingt, die Parhelia...

StefanV
2007-08-03, 16:03:39
gerade im medizinischen bereich ist für diverse visualisierungen ein ordentlicher bedarf an 3d-leistung vorhanden.
Da gibts aber auch 'ne Forderung nach vielen ausgängen und 'besonderen', den Bedarf deckt Matrox, ebenso müssen die Produkte entsprechend validiert sein, Bildfehler oder Abstürze in Medizinischen Anwendungen können im wahrsten sinne tödlich sein.

Zumal es da eher auf die Widergabe von 'Videos' ankommt...

BlueRaven
2007-08-03, 16:55:51
soweit ich weiß ist Matrox für die Signal Qualität sehr berühmt geworden von ihren Grafikkarten und wie oben schon erwähnt im bereich Medizin u.s.w ist Matrox platzhirsch...

Zur Parhelia, die laß sich auf dem Papier wie ein krasse HighEnd Karte, aber das ergebnis war eher ein niederschlag für Matrox, aber 2D Nutzer haben den Parhelia karten ein gefallen gefunden...


MFG

Gast
2007-08-03, 17:05:50
soweit ich weiß ist Matrox für die Signal Qualität sehr berühmt geworden von ihren Grafikkarten und wie oben schon erwähnt im bereich Medizin u.s.w ist Matrox platzhirsch...

was allerdings im DVI-zeitalter irrelevant ist (und nebenbei ist mittlerweile die signalqualität so ziemlich aller karten einwandfrei).

WinterBorn
2007-08-03, 20:30:20
was allerdings im DVI-zeitalter irrelevant ist (und nebenbei ist mittlerweile die signalqualität so ziemlich aller karten einwandfrei).

Es gibt auch noch andere Qulitäten von matrox-Karten, die "5-Jahre-Consumer"-Karten nie erreichen.

Beispielsweise wurde im matrox-Forum mal gefragt, welche MTBF (Mean time between failures) eine Matrox Millenium P650 hat.

Die Antwort von Matrox war: MTBF @ 40°C: 39.70 Years (24hrs/day) or 347783 Hours

Liszca
2007-08-03, 21:09:50
Einfach dinge wie DL DVI & unterstützung der "HD" Codecs werden sie wohl bringen müssen, sonst haben sie eigentlich keine daseinsberechtigung verloren.

rob]SK[
2007-08-04, 15:34:07
ich glaub die gaeste hier sind alle u16 , oder haben kein plan von damals , zu matrox zeiten gab es noch nicht einmal eine geforce, habe mir selbst die g400 max gegönnt und ihr gegner waren voodoo 3000 / 3500 und die tnt 2 ultra

und es war ziemlich ausgeglichen an leistung , bis auf expandable da ging die g400 uebel ab. einzigste karte die das spiel ueber 25 fps in 1600 mit 32 bit brachte.

also kommt hier nicht mit die war extrem langsam , g4 liegt wie die 9700 radeon weit vorraus.
die karten sind dx 8 und matrox dx6 noch, da war der 3dmark 99 noch aktuell , bei g4 schon der 2001 er.

habe selbst im 3dmark 99 mit der g400max pkt einer gf2 gts erreicht.

was für sich spricht.trotz 2 generationen unterschied.

also wenn man keine ahnung hat ....


zur parhelia die kam auch zu geforce 2 zeiten am markt, wie soll dann bitte eine g4 geschlagen werden ?!

laut matrox wollten sie sich halt nur wieder ins high end grafik segment zurückziehen, was halt nicht die spiele karten sind.
das ist eine ganz andere schiene.

mfg rob

VivaLaHarry
2007-08-04, 15:37:33
SK[;5724660']zur parhelia die kam auch zu geforce 2 zeiten am markt, wie soll dann bitte eine g4 geschlagen werden ?!
moin,

also mit der G400 gebe ich dir völlig Recht. Für die damalige Zeit ein wahres Prachtstück. Jedoch mit der Parhelia liegste glaube ich etwas falsch. Die kam zwischen GF4 und Radeon 9700 glaube ich. So Anno Anfang 2002?

MfG,
VivaLaHarry

Gast
2007-08-04, 16:16:54
SK[;5724660']
also kommt hier nicht mit die war extrem langsam , g4 liegt wie die 9700 radeon weit vorraus.


die G400 nicht, die parhelia schon.


zur parhelia die kam auch zu geforce 2 zeiten am markt, wie soll dann bitte eine g4 geschlagen werden ?!

hallo? die Parhelia kam nach der Geforce4 und knapp vor der Radeon9700 auf den markt.

aber schon klever von matrox die karte, als sie für den highend-gamer-markt deutlich zu langsam war, sie als "profi-karte" zu vermarkten und damit den preis hoch zu halten ;)

WinterBorn
2007-08-04, 16:19:04
SK[;5724660']


zur parhelia die kam auch zu geforce 2 zeiten am markt,

mach' den Parhelia-Chip nicht älter, als er ohnehin schon ist :wink:

Juli 2002 waren die ersten Karten verfügbar, Geforce2 gab es schon mitte 2000

ooAlbert
2007-08-04, 16:30:39
also ich fand matrox eigentlich immer sehr gut hab auch heute noch eine g450 mit dual anschluß :) die haben so wie mir bekannt das sauberste signal für VGA und TV-outs generiert. Wenn ich da an speziell den TV-out von vielen NV denke ;) aber es stimmt schon langsam könnte mal wieder was kommen. wobei die multimonitor lösungen sidn schon beeindruckend. sowas schafft keine der hochgezüchteten ATI+NV-Karten... Sogesehen könnte man auch mal die effizienz der karten betrachten die faktisch kaum strom verbrauchen und eigentlich durchweg passiv laufen können.

Auf jedenfall find ich für die typischen büroanwendungen ist das die beste wahl, selbt für CAD find ich sie sehr gut, da es dort auch 3d leistung eh nicht ankommt sondern auf ein sauberes signal, genau wie im videobereich ;)

MikeB
2007-08-05, 10:25:24
g450-DH und sauberes Videosignal? Never...
Ich habe selten ein so colorbanding-verseuchtes videosignal gesehen. Okay, dem grünstichigen Rage128-Videoausgang war es haushoch überlegen.

Ich hatte irgendwann davon die Schnauze voll und habe die Matrox durch eine Radeon9200-vivo-128bit ersetzt.
Und was musste ich sehen? Ein perfektes videosignal, ein theater-mode der nicht fehlerhaft emuliert ist, eine sichtbar verbessertes VGA-Signal, und jetzt kommt der Hammer: Eine spürbar verbesserte 2d-performance!

Seitdem ist mir klar, dass die vielgerühmte 2d-qualität/performance nur noch ein Echo aus Millenium/Mystique Zeiten ist...

Michael

StefanV
2007-08-05, 10:42:54
Naja, das 'Problem' an der G450 ist, das sie technisch auf Stand der Rage128/G400/TNT2 geblieben ist, ohne nennenswerte Veränderungen, auch der Speicher ist nicht der schnellste, ein 128bit DDR-SDRAM Interface wäre durchaus notwendig gewesen, ja sogar für 2D.

Das mit einer Radeon 9200 zu vergleichen ist etwas gemein denn die ist technisch in jedem Punkt mehrere Jahre weiter als es die G450 war/ist...

Das ist leider ein großes Problem von Matrox, das sie viel zu lange an ihren Produkten festhalten und sie schlechter machen als notwendig wäre (siehe G450/G550, beide hätten ein 128bit DDR-SDRAM Interface verdient gehabt9.

MikeB
2007-08-05, 10:55:11
Mir ging es primär um die den Matroxkarten "angedichtete" superbe Signal-qualität, die von einer "aktuellen" lo-end Karte übertrumpft wird.
Hier sollte eigentlich der technologische Fortschritt nicht greifen, nur bei der Performance.

Aber leider gibt es solche Schätzchen wie die 9200 mit 128bit SI und passiver Kühlung praktisch garnicht mehr zu kaufen.
Entweder TC/64bit-Krücken, oder ein billigster Miefquirler drauf...

Michael

Gast
2007-08-05, 12:41:51
sie war nicht nur nicht extrem schnell, sondern extrem langsam, selbst eine uralte Geforce4 konnte nicht geschlagen werden.

Mit FAA sah sogar einer GeForce4 Ti4600 alt aus ;) Ich hatte es damals Quasi immer an, da man den performace Unterschied eh kaum bemerkt hat.

Gast
2007-08-05, 13:08:43
Mit FAA sah sogar einer GeForce4 Ti4600 alt aus ;) Ich hatte es damals Quasi immer an, da man den performace Unterschied eh kaum bemerkt hat.

FAA verglichen mit was? bei der GF4 gab es keinen vergleichbaren modus, und die karte war mit und ohne FAA langsamer als die GF4, mit FAA natürlich deutlich schöner. wobei FAA blöderweise einige kanten komplett unbehandelt lässt, was dann schon stark ins auge sticht. dennoch eine interessante technik, schade dass sie nicht weiterentwickelt wurde, so hat es bis zum G80 gebraucht bis wir ähnlich günstiges 16xAA bekommen haben.

der-maxx
2007-08-06, 00:58:37
SK[;5724660']ich glaub die gaeste hier sind alle u16 , oder haben kein plan von damals , zu matrox zeiten gab es noch nicht einmal eine geforce, habe mir selbst die g400 max gegönnt und ihr gegner waren voodoo 3000 / 3500 und die tnt 2 ultra

und es war ziemlich ausgeglichen an leistung , bis auf expandable da ging die g400 uebel ab. einzigste karte die das spiel ueber 25 fps in 1600 mit 32 bit brachte.

also kommt hier nicht mit die war extrem langsam , g4 liegt wie die 9700 radeon weit vorraus.
die karten sind dx 8 und matrox dx6 noch, da war der 3dmark 99 noch aktuell , bei g4 schon der 2001 er.

habe selbst im 3dmark 99 mit der g400max pkt einer gf2 gts erreicht.

was für sich spricht.trotz 2 generationen unterschied.

also wenn man keine ahnung hat ....


zur parhelia die kam auch zu geforce 2 zeiten am markt, wie soll dann bitte eine g4 geschlagen werden ?!

laut matrox wollten sie sich halt nur wieder ins high end grafik segment zurückziehen, was halt nicht die spiele karten sind.
das ist eine ganz andere schiene.

mfg rob
aslo ich hatte die matrox millenium und die mystique das waren die ersten echten 3d consumer karten :D chip war der G100 ;D

StefanV
2007-08-06, 16:01:35
MGA-2164W und 1064SG warens, der 2064W war nicht in der Lage Texturen auf die Polygone zu legen...