PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Matrox macht es genau richtig !


??????
2002-06-20, 11:04:07
Mir ist, als ich überlegt habe ob ich mir eine Parhelia Karte zulegen soll, aufgefallen das Matrox den richtigen Weg gegangen ist.

Wer braucht den unbedingt 500fps in Quake 3 wenn man eine Sch**ß
Bild -und Signalqulität hat ??

Matrox kümmert sich auch ein bischen um den Fortschritt, und verdoppelt nicht einfach die Shader oder den Ram.

Oder glaubt wirklich jemand, das nVidia interesse daran hätte sowas wie Displacement Mapping zu entwickeln ??

NEIN, die lassen von Microsoft entwickeln und bauen es in ihre Karten, anstatt ma etwas zum Fortschritt beizutragen.

Dann gibt es die erste DX9 Karte, mit die eigentlich kein Mensch benötigt, da sie keine neuen Features bietet die man in anderen Anwendungen benötigen könnte (TV-Out und Bild ist fürn Arsch).
Dann kommt die revulotionäre zweite DX9 Karte raus, sie bietet nämlich jetzt doppelt so viel Shader und doppelt so viel Ram.
und kostet doppelt so viel (Die Entwicklung war ja auch so teuer)
Doch die Innovatinoen bleiben aus.

Ich will damit nicht sagen dass, das alles nichts bringt.
Das tut es schon, allerdings braucht es zum Zeitpunkt des Erscheines kein Mensch.

Matrox ist da anders, sie brauchen nicht unbedingt, 350 Mhz Speichertakt, wenn billigere 275Mhz mit knapp 18GB Bandbreite ausreichen.

Und entwickeln für das gesparte Geld lieber ein paar nette Features wie FAA oder Displacement Mapping (Was sie in DX9 integriert haben, und die anderen Firmen wahrscheinlich wie ihre eigene Erfindung feiern werden.

Über den dritten Monitor ausgang lässt sich streiten, aber was solls.

Die Bildqulität ist einfach genial (noch besser mit 10Bit Farbdarstellung).

3D Labs genauso, wenn die Technologie des P10 Erfolg hat sieht die Geforce 6 genauso aus, wenn nicht lacht sich nVidia kaputt

GENUG DER HETZTE WAS SAGT IHR DAZU ???

mapel110
2002-06-20, 11:17:19
hm, nahezu alles falsch.

die dx-features werden von mirosoft in zusammenarbeit mit den graka-herstellern entwickelt. und da gehören mittlerweile alle grossen hersteller dazu.
du lobst einen chip, der noch nicht einmal unabhängig getestet wurde. eigentlich machst du das zweimal, p10 und parhelia.

einerseits beklagst du dich, dass nvidia keine innovationen rausbringt und andererseits sagst du, dass die neuen features nix bringen.
aber bei matrox ist das displacement mapping wieder der hit. leider ist das aber auch ein feature, dass erst viel später verwendung finden wird.
btw. wer war der erste hersteller mit dx8-hardware ?

Unregistered
2002-06-20, 11:23:30
Originally posted by mapel110

btw. wer war der erste hersteller mit dx8-hardware ?

Na ATI mit der Radeon.

nocturne
2002-06-20, 11:25:20
GENUG DER HETZTE WAS SAGT IHR DAZU ??

Müder Trollversuch. :lol:

Deine "Argumentation" widerspricht sich natürlich selber.

Du kannst nicht einerseits von DX9 schwärmen, und gleichzeitig ignorieren, dass die Parhelia keine richtige DX9-Karte sein wird. Nur eine DX8-Karte mit einem neuen Feature, das vor 2004/2005 sowieso nicht genutzt wird.

Du kannst auch nicht von "Innovationen" labern, ohne zu ignorieren, dass dies all dies nicht ohne die Innovationen von nVidia möglich gewesen wäre. Ohne T&L und Pixel- und Vertexshader, würden alle unsere Spiele immer noch aus polygonarmen Bauklötzchen bestehen. Und diese Innovationen hat nVidia als erster realisiert. Und Matrox hat in den letzten Jahren NULL Innovationen im 3D-Bereich gebracht, nur Bürokarten.

Du kannst nicht über hohe Preise jammern, und gleichzeitig ignorieren, dass die Parhelia mit 550 € (1100 DM) einfach zu teuer ist und nie an das Preis/Leistungsverhältnis einer Ti4200 herankommen wird.

Du kannst nicht von Bildqualität labern, ohne jemals eine Parhelia selber gesehen zu haben.

Mit so einer überteuerten Karte, die noch nicht mal richtig DX9 unterstützt, wird Matrox nicht viele Käufer finden. Aber da die Karte sowieso noch nicht da ist, ist das sowieso irrelevant. ;)

Aber das alles hatten wir ja schon mal im Thread "Der Grund für die schlechten Matrox-Treiber" (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=21614)
:lol:

Major J
2002-06-20, 11:25:27
@unreg

Welche Radeon soll das gewesen sein?

Ich dachte NVidia mit GF3 vor über einem Jahr.

mapel110
2002-06-20, 11:30:53
hey, ich bin mit nocturne einer meinung. dass ich das noch erleben darf :)

die ati radeon 8500 kam ja wohl ein jahr später, als die geforce3. alles davor von ati war dx7.

@major
du hast somit also recht !

nocturne
2002-06-20, 11:31:22
Originally posted by Major J

Ich dachte NVidia mit GF3 vor über einem Jahr.

Natürlich war die GeForce3 die erste richtige DX8-Karte. Das war auch nur ein müder Trollversuch. :lol:

aths
2002-06-20, 11:31:51
Originally posted by nocturne
hohe Preise jammern, und gleichzeitig ignorieren, dass die Parhelia mit 550 € (1100 DM) einfach zu teuer ist und nie an das Preis/Leistungsverhältnis einer Ti4200 herankommen wird.Komische "Argumentation". Ti4600 kommt auch nicht aln das Preis/Leistungsverhältnis einer Ti4200 heran, wird aber trotzdem verkauft. Ich habe schon mal erwähnt, dass der Parhelia gar nicht für dich gedacht ist, da ist es sehr fragwürdig mit dem Preis/Leistungsverhältnis einer Einsteiger-Lösung zu kommen.

Major J
2002-06-20, 11:32:28
Man man man.... hier darf man nix für voll nehmen :D

Ganon
2002-06-20, 11:32:28
Matrox kümmert sich auch ein bischen um den Fortschritt, und verdoppelt nicht einfach die Shader oder den Ram.


Hmm,

GF4= 2 VertexShader
P. = 4 VertexShader

GF4= 128MB-RAM
P. = 256MB-RAM (Design extra für 256MB ausgelegt)

aths
2002-06-20, 11:36:44
Originally posted by nocturne
Natürlich war die GeForce3 die erste richtige DX8-Karte. Das war auch nur ein müder Trollversuch. :lol: Nicht immer von sich auf andere schließen. Der Herr Unreg hat sich offensichtlich geirrt. (Ist aber echt lustig, wer hier wem Troll-Vorwürfe macht.)

Major J
2002-06-20, 11:42:02
:bonk: Ich versteh vor lauter Trollen garnix mehr.

Andre
2002-06-20, 11:44:52
Originally posted by aths
Nicht immer von sich auf andere schließen. Der Herr Unreg hat sich offensichtlich geirrt. (Ist aber echt lustig, wer hier wem Troll-Vorwürfe macht.)

Offensichtlich geirrt?

Wer legt denn fest, wer sich nur irrt oder bewusst trollt?

Du?

Exxtreme
2002-06-20, 11:50:09
Originally posted by nocturne
Du kannst auch nicht von "Innovationen" labern, ohne zu ignorieren, dass dies all dies nicht ohne die Innovationen von nVidia möglich gewesen wäre. Ohne T&L und Pixel- und Vertexshader, würden alle unsere Spiele immer noch aus polygonarmen Bauklötzchen bestehen. Und diese Innovationen hat nVidia als erster realisiert. Und Matrox hat in den letzten Jahren NULL Innovationen im 3D-Bereich gebracht, nur Bürokarten.
T&L-fähige GraKas gab es schon lange vor der GF-Serie. Hmm, und alle Spiele ausser Aquanox, Morrowind und Commanche4 bestehen deiner Meinung aus polygonarmen Bauklötzen?

Originally posted by nocturne
Du kannst nicht über hohe Preise jammern, und gleichzeitig ignorieren, dass die Parhelia mit 550 � (1100 DM) einfach zu teuer ist und nie an das Preis/Leistungsverhältnis einer Ti4200 herankommen wird.
Err, ein High-End-Produkt mit einem Einsteiger-Produkt zu vergleichen ist wohl doch leicht daneben, oder? Du müsstest eher den Parhelia gegen die GF4Ti4600 vergleichen.
Originally posted by nocturne
Du kannst nicht von Bildqualität labern, ohne jemals eine Parhelia selber gesehen zu haben.

Also schlechter als NV werden die wohl kaum sein. NV-basierende Karten sind was gute SQ angeht am unteren Ende der Skala, kannst aber alles in der aktuellen c't nachlesen.
;)

Gruß
Alex

Xmas
2002-06-20, 12:03:12
Originally posted by Exxtreme
Also schlechter als NV werden die wohl kaum sein. NV-basierende Karten sind was gute SQ angeht am unteren Ende der Skala, kannst aber alles in der aktuellen c't nachlesen.
;)
Und beim Tecchannel-Test sind sie über die ganze Breite gestreut... Wie schön dass man die Wahl hat ;)

Andre
2002-06-20, 12:29:09
Originally posted by Exxtreme
Also schlechter als NV werden die wohl kaum sein. NV-basierende Karten sind was gute SQ angeht am unteren Ende der Skala, kannst aber alles in der aktuellen c't nachlesen.
;)

Gruß
Alex

Auch wenn Du 1000 mal die c´t zitierst, dann mache es vollständig.
ATI hat ebenso nur ein befriedigend bis ausreichend bekommen, also tu doch nicht so, als hätte NV eine 5 und ATI eine 1 bekommen.
Das sind marginale Unterschiede, die du bei einem Normal-17-Zoller kaum erkennst.

Du kannst nicht den Original-ATI mit einer Noname-NV vergleichen und dann mit der SQ ankommen.
Nimm eine Marken-GF 4 und du wirst sehen, wie auch in den meisten Tests zur GF4 mittlerweile deutlich erwähnt, dass eine Marken-GF 4 der ATI in nichts nachsteht.

Der Rest ist Flamerei.

Exxtreme
2002-06-20, 12:33:28
@ Andre
Hiermit ernenne ich dich zum Begründer der "Ich-übersehe-jeden-Smiley"-Fraktion.
;) <---Smiley

Nix für ungut.

Gruß
Alex

nocturne
2002-06-20, 12:34:54
Originally posted by Andre


Auch wenn Du 1000 mal die c´t zitierst, dann mache es vollständig.
ATI hat ebenso nur ein befriedigend bis ausreichend bekommen, also tu doch nicht so, als hätte NV eine 5 und ATI eine 1 bekommen.
Das sind marginale Unterschiede, die du bei einem Normal-17-Zoller kaum erkennst.

Du kannst nicht den Original-ATI mit einer Noname-NV vergleichen und dann mit der SQ ankommen.
Nimm eine Marken-GF 4 und du wirst sehen, wie auch in den meisten Tests zur GF4 mittlerweile deutlich erwähnt, dass eine Marken-GF 4 der ATI in nichts nachsteht.

Der Rest ist Flamerei.

Eben. Das ist das üblich Flame-Märchen von Leuten, die mal irgenwo was gelesen haben, und es nun versuchen auszuschlachten, ohne es selber gesehen zu haben.

Und wer wirklich scharfe Bilder haben will, hat sowieso einen TFT, und betreibt ihn bei flimmerfreien 60 Hz. Und da sehen alle Grafikkarten gleich aus. Nämlich superscharf.

Exxtreme
2002-06-20, 12:46:06
Originally posted by nocturne
Eben. Das ist das üblich Flame-Märchen von Leuten, die mal irgenwo was gelesen haben, und es nun versuchen auszuschlachten, ohne es selber gesehen zu haben.

Also meine Riva128 liefert ein beschissenes Bild.
;)

Gruß
Alex

StefanV
2002-06-20, 12:48:20
Originally posted by Major J
@unreg

Welche Radeon soll das gewesen sein?

Die 'Radeon', auch bekannt als R100.

Leider ist sie nur teilweise DX8 'compliant', aber ansätze von VS und PS hat sie schon (nur leider eine TMU zu wenig).

Gleiches gilt aber auch für die GFs, die haben auch schon ansätze von einem PS...

Pixelshader sind also keine neuentwicklung, sondern 'nur' eine Weiterentwicklung...

Major J
2002-06-20, 12:50:41
... ich meinte richtiges DX8 (Vertex- und Pixel-Shader Hardware) und nicht so halbe Sachen. ;)

nocturne
2002-06-20, 12:53:45
Originally posted by Major J
... ich meinte richtiges DX8 (Vertex- und Pixel-Shader Hardware) und nicht so halbe Sachen. ;)

Eben. Lass Dich nicht verarschen. ;)

Radeonator
2002-06-20, 12:54:36
Ehm, lol?
Sätze wie : "Das brauchen wir nicht, wird erst 2004 Ausgenutzt..." packe ich mal in die BillGates " Es wird keine Anwendung geben die mehr als 800k Konventionellen Speicher auch nur Ansatzweise ausnutzen wird..." Schublade ;)
Derzeit geht die Entwicklung derart schnell voran, das man solche Aussagen einfach nicht mehr machen kann.Wie in einem anderem thread schon geschrieben wurde, nutzt bereits UT2003 bis zu 256MB an Ram aus...
Die Radeon war und ist die einzige echte DX8.1(!!!) Graka, DX8.0 Grakas hatte NV zuerst aber eine DX8.1 haben sie immer noch nicht.
T&L gab es in einer sehr vereinfachten form früher schon, da nannte es sich allerdings "Geometrie Beschleunigung"
Es ist Marketing technisch nur Klug, alten Dingen einen neuen Namen zu geben.Die waren Innovationen kamen erst von 3dfx(erster echter Beschleuniger), S3 (Twin Texel Architektur und diverse andere leckerli), TBR(Kyro), T&L+ Pixelshader (NV) etc. Die Summe aller Features ist dann eine Radeon (PixelTapestry durch mehr Textures pro Pass), Radeon 8500(PS1.4 etc.)

Natürlich schauen sich die Entwickler gegenseitig über die Schultern, da viele Features sinnvoll sind, warum auch nicht??? TBR=HyperZ/LA etc. TNT eigentlich S3´s TwinTexel usw.. Wenn dem nicht so wäre, hätte jeder seinen eigenen Weg, es würde kein Standart geben und die Programmierer müssten Programme an sämmtliche Schnittstellen anpassen (wie zu Glide Zeiten ;) )

Hauptsache die Entwicklung geht voran und es wird darraus gelernt.Nur gut für uns Gamer

p.s.: Ach ja, Nvidia macht also keine Innovationen??? Sagt dir "NVIDIA Introduces "Cg" -- C For Graphics" vielleicht was ? ;)

Unregistered
2002-06-20, 13:05:50
Hr ????

Dir war schon bewusst das das hier nur als Flamethread enden kann/konnte? GIbts doch mind. 5 aktuelle Threads in denen das schon durchgekaut wurde:( -> Iss echt ermuedend manchal aus nem 15 Thread die 75%Flame rauszufiltern und noch die eigentliche Diskussion(so es eine gibt;)) rauszufiltern, Vielleicht sollte man noch ein parr verschiedene Flameforen aufmachen;)

sry hat nix mit dem Thema zu tuhen, bin mir aber nicht sicher ob's in diesem Thread eins gibt und wenn dann isses kein neues,

Gruess,

Peta

Unregistered
2002-06-20, 13:09:12
Hr ????

Dir war schon bewusst das das hier nur als Flamethread enden kann/konnte? GIbts doch mind. 5 aktuelle Threads in denen das schon durchgekaut wurde:( -> Iss echt ermuedend manchal aus nem 15 SeitenThread die 75%Flame rauszufiltern und noch die eigentliche Diskussion(so es eine gibt;)) rauszufiltern, Vielleicht sollte man noch ein parr verschiedene Flameforen aufmachen;)

sry hat nix mit dem Thema zu tuhen, bin mir aber nicht sicher ob's in diesem Thread eins gibt und wenn dann isses kein neues,

Gruess,

Peta

Meta
2002-06-20, 13:51:26
Ich denke fast, der Typ der den Thread auf gemacht hat, hat bewusst, derartige Falschaussagen und Widersprechungen geschrieben....denk ich halt mal, ansonsten ist der Thread tatsächlich bald nur mehr Flamerei....

Euer Meta

Unregistered
2002-06-20, 14:41:31
ES IST SCHON LUSTIG WIE MAN MIT EIN PAAR AUSSAGEN EIN PAAR LEUTE IN SO EINER KURZEN ZEIT AUFREGEN KANN :-)

aths
2002-06-20, 15:54:37
Originally posted by Andre
Wer legt denn fest, wer sich nur irrt oder bewusst trollt?Eine (offensichtliche) Falschaussage würde ich nicht als Herumtrollen bezeichnen, nur weil ein forenbekannter Troll eben so tönt.

zeckensack
2002-06-20, 16:28:43
Originally posted by Radeonator
Ehm, lol?
Sätze wie : "Das brauchen wir nicht, wird erst 2004 Ausgenutzt..." packe ich mal in die BillGates " Es wird keine Anwendung geben die mehr als 800k Konventionellen Speicher auch nur Ansatzweise ausnutzen wird..." Schublade ;)Bill Gates' Spruch wurde auch erst Jahre später ad absurdum geführt. Irgendwie hast du dir da selbst widersprochen ... außerdem ging's da um 640k, nicht 800. ;)Derzeit geht die Entwicklung derart schnell voran, das man solche Aussagen einfach nicht mehr machen kann.Wie in einem anderem thread schon geschrieben wurde, nutzt bereits UT2003 bis zu 256MB an Ram aus...Nicht schneller als sonst. 256MB RAM? Häh? System-RAM, oder wie jetzt? Hier geht's doch um Grakas! Da stand, daß UT eine 128MB-Graka speichermäßig auslasten kann, aber bei weitem nicht notwendig ist, sonst nix.Die Radeon war und ist die einzige echte DX8.1(!!!) Graka, DX8.0 Grakas hatte NV zuerst aber eine DX8.1 haben sie immer noch nicht.Eis backen! Ich habe selber eine R200, aber das, was du hier groß als DX8.1 anpreist (PS1.4, nehme ich mal an), das geht mir auch am Ar*** vorbei, es wird nie irgendein Spiel geben, daß auf 'ner R200 besser aussieht als auf 'ner Geforce3. Gewöhn dich lieber an den Gedanken.T&L gab es in einer sehr vereinfachten form früher schon, da nannte es sich allerdings "Geometrie Beschleunigung"
Es ist Marketing technisch nur Klug, alten Dingen einen neuen Namen zu geben.Wie was? Das nennt sich seit jeher Transform and Lighting (kuckst du OpenGL1.0, wenn du das noch findest, ist uralt). Und sinnigerweise nennt es sich auf Karten mit Hardware-Unterstützung "Hardware Transform and Lighting", Abkürzung dafür bitte selbst ausdenken.Die waren Innovationen kamen erst von 3dfx(erster echter Beschleuniger),Voodoo 1 wahr bahnbrechend. Trotzdem definiere bitte 'echt'.S3 (Twin Texel Architektur und diverse andere leckerli), Falsch. Riva TNT kam vor Savage 4. S3TC hättest du nehmen können ;)TBR(Kyro), T&L+ Pixelshader (NV) etc. Die Summe aller Features ist dann eine Radeon (PixelTapestry durch mehr Textures pro Pass), Radeon 8500(PS1.4 etc.)

Natürlich schauen sich die Entwickler gegenseitig über die Schultern, da viele Features sinnvoll sind, warum auch nicht??? TBR=HyperZ/LA etc. TNT eigentlich S3´s TwinTexel usw.. Wenn dem nicht so wäre, hätte jeder seinen eigenen Weg, es würde kein Standart geben und die Programmierer müssten Programme an sämmtliche Schnittstellen anpassen (wie zu Glide Zeiten ;) )Ach nö, jetzt mag ich nicht mehr ...

wulfman
2002-06-20, 16:35:48
Originally posted by nocturne
Und wer wirklich scharfe Bilder haben will, hat sowieso einen TFT, und betreibt ihn bei flimmerfreien 60 Hz. Und da sehen alle Grafikkarten gleich aus. Nämlich superscharf.

ich will auch mal: auf der parhelia sollte es dank glyph-AA (hardwareseitig) besser ausschauen... ;)

ja, das bringt wirklich was - sonst würde XP es nicht softwareseitig anbieten.

mfg
wulfman

ernesto.che
2002-06-20, 16:53:47
Originally posted by nocturne


Eben. Das ist das üblich Flame-Märchen von Leuten, die mal irgenwo was gelesen haben, und es nun versuchen auszuschlachten, ohne es selber gesehen zu haben.

Und wer wirklich scharfe Bilder haben will, hat sowieso einen TFT, und betreibt ihn bei flimmerfreien 60 Hz. Und da sehen alle Grafikkarten gleich aus. Nämlich superscharf.
Dem wiederspreche ich mal: Auf meinem TFT sehe ich zwischen einer G400 und einem TNT2 schon nen Unterschied. Kaum sichtbar schlechter als die G400 ist bei mir meine Voodoo 5 und eine Radeon 32MB DDR.

Radeonator
2002-06-20, 17:03:21
@zeckensack : Zitat :"Fuer die allerhoechste Detailstufe brauchst Du bei 1600x1200 sehr wahrscheinlich 'ne 256 MByte Karte um alle Texturen und Vertexbuffer auf die Karte zu bekommen"

Vor der Savage kam die Virge ;)

Es geht in meinem Thread um ein Prinzip...für diejenigen, denen das net auffällt...;)

Ich habe nirgendwo geschrieben das irgendwelche Spiele auf der Radeon besser aussehen werden (angeblich soll ut2k3 by the way auch 1.4 unterstützen, dann würde es doch besser aussehen als auf GF3/GF4 karten...gewöhn dich dran...)

Ich denke das Prinzip, was ich hier anführe ist jedem klar und auch wenn du durch "Kleinkrämerei" vom Thema abweichst, dir ;)

p.s.:Immer daran denken: Sachlichkeit bringt einen weiter als Flamen und Lamen ;)

FormatC
2002-06-20, 17:24:34
"Ich habe Recht!"
"Hast Du garnicht! Ich habe Recht!"

Hilfe.. :zzz:

Also ich streite/diskutiere ja auch gerne mal, aber so oft und abwechslungsreich nicht.

demklon
2002-06-20, 17:47:46
das ist sicher auch mit der grund warum sich viele leute die normalerweise gerne diskutieren diese foren meiden ...


*nein ich*


lööl

Demirug
2002-06-20, 20:13:30
Originally posted by Radeonator
Ich habe nirgendwo geschrieben das irgendwelche Spiele auf der Radeon besser aussehen werden (angeblich soll ut2k3 by the way auch 1.4 unterstützen, dann würde es doch besser aussehen als auf GF3/GF4 karten...gewöhn dich dran...)


falls du es nicht weist zeckensack ist stolzer besitzer einer Radeon 8500. Er würde sich sicher freuen wenn spiele auf seiner Karte besser aussehen würden als auf einer GF3/4. Spiele entwickler versuchen aber grundsätzlich ein Spiel auf allen Karten der gleichen Generation gleich aussehen zu lassen. ut2k3 benutzt den PS 1.4. Der Grund dafür sind aber nicht bessere Effekte (alle ut2 effekte sind auch ohne ps möglich) sonder es soll die optimale performancen herausgeholt werden. Die Radeon 8500 kann den gleichen effekt mit mehr FPS darstellen wenn er mit PS 1.4 anstat PS 1.1 programmiert wurde. Da kommt daher das PS 1.4 sich besser auf die Hardware abilden läst. PS 1.1 muss auf der Radeon emuliert werden.

HOT
2002-06-20, 20:21:04
Wie schön war noch die Zeit, als Hercules die erste T&L Karte für relativ wenig Geld auf den Markt brachte und diese keiner kaufen wollte ;)
Erinnert sich jemand an die Hercules Thriller Conspirancy? Das Teil hat Kultstatus würd ich sagen :D Rendition Verité 2200 Chip mit externem T&L Chip ;)

zeckensack
2002-06-20, 20:52:33
Originally posted by HOT
Wie schön war noch die Zeit, als Hercules die erste T&L Karte für relativ wenig Geld auf den Markt brachte und diese keiner kaufen wollte ;)
Erinnert sich jemand an die Hercules Thriller Conspirancy? Das Teil hat Kultstatus würd ich sagen :D Rendition Verité 2200 Chip mit externem T&L Chip ;) Die ist leider nie richtig rausgekommen. Lag wohl daran, daß plötzlich einige Firmen begonnen hatten, Direct3D für was intelligentes zu halten und da war nix mit T&L-HW nutzen. Hätte sich OpenGL früher als Spiele-API etabliert, dann wäre uns da einiges erspart geblieben.

Radeonator
2002-06-21, 00:53:56
Jo, OGL ist echt die bessere Wahl, aber hier macht sich halt wiedereinmal bemerkbar welche Macht das Mickrigsoft (fast) Monopol hat.