PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wurde eigentlich schon eine Volari verkauft?


Corny
2004-05-20, 12:57:39
Ich bin grad bei Geizhals über die Club3D Volari Duo gestolpert und hab mich gefragt ob die Händler überhaupt schon welche verkauft haben?
Jeder der sich etwas mit der Materie auskennt greift doch lieber zu einer NVidia oder ATI Karte - schon alleine wegen der Treiber-kompatibilität mit Spielen.

Hellfire-Torrod
2004-05-20, 16:53:21
Es gibt immer irgendwelche leute, die was neues ausprobieren wollen und sich diese Karte auch zugelegt haben. Ich gehe jedoch davon aus, das die Verkaufszahlen unter die 10k marke fallen. vieleicht 2000 mehr nicht.
Trotzdem. Für ein mehr oder weniger erstlingswerk schonmal nicht schlecht gewesen die Karte. Denke, das XGI irgendwann nochmal eine karte auf den markt bringen wird. Diese wird dann weniger macken haben und sich vieleicht etablieren und NV/ati dampf machen.

LOCHFRASS
2004-05-20, 22:31:20
Von der Optik her sind die Karten nicht zu schlagen, ich würde mich nicht gegen eine wehren (na gut ich hab ja auch nur ne Ti4200 :freak2: ).

Hellfire-Torrod
2004-05-20, 22:40:37
Was kosten die karten momentan eigendlich?!....treibermäßig siehts ja auch nicht so doll aus. Laut is sie auch, hat 2 Stromanschlüsse(min 400w).......aber hast recht, gut sieht sie aus....*Nagelvolariandiewand*.....!

edit: Dafür, das sie am anfang ca. 400€ gekostet hat, scheint sie nun gut im preis gefallen (http://www.geizhals.at/eu/a74550.html) zu sein. Für den preis gehen davon bestimmt noch n paar wech!

edit 2. : Hier (http://www.de.tomshardware.com/graphic/20031108/index.html) gibts auch nen Test zu der Karte!

misterh
2004-05-20, 22:44:59
ja ich werde vielleicht eins holen für mein Kumpel :D

BesenWesen
2004-05-21, 01:06:25
Ich frage mich, wieso die das Teil überhaupt in der Form auf den Markt gebracht haben, dazu noch zu dem Preis von über 400 Euro. Die Leistung ist zum Teil so übel, daß die Volari Duo nicht mal die Hälfte wert gewesen wäre. Ist doch klar, daß sich da kaum Käufer finden lassen, außer vielleicht einigen Grafikkarten-Freaks, die Geld wie Heu haben. Ich meine, die werden das Ding ja selbst getestet und gesehen haben, wie schlecht es im Vergleich selbst zu den Mid-Range Karten von ATI und NVIDIA abschneidet.
Nun ist der Ruf von XGI schon nach dem ersten Produkt angekratzt... vielleicht hätten sie mit etwas mehr Entwicklungszeit ja noch was brauchbares aus dem Chip bzw. Treibern machen können.

Sumpfmolch
2004-05-21, 03:16:26
von der performance gehört die karte in das >100€ segment

..und ab 50€ kauf ich mir eine und nagel sie an die wand ;D

mictasm
2004-05-21, 03:33:12
Original geschrieben von Hellfire-Torrod
Es gibt immer irgendwelche leute, die was neues ausprobieren wollen und sich diese Karte auch zugelegt haben. Ich gehe jedoch davon aus, das die Verkaufszahlen unter die 10k marke fallen. vieleicht 2000 mehr nicht.
Trotzdem. Für ein mehr oder weniger erstlingswerk schonmal nicht schlecht gewesen die Karte. Denke, das XGI irgendwann nochmal eine karte auf den markt bringen wird. Diese wird dann weniger macken haben und sich vieleicht etablieren und NV/ati dampf machen.

Wie kann denn eine Verkaufszahl (die du nicht weiter bezeichnest) unter eine bestimmte Anzahl fallen? Geben die Kunden die Karten wieder zurück?

Original geschrieben von Hellfire-Torrod
Was kosten die karten momentan eigendlich?!....treibermäßig siehts ja auch nicht so doll aus. Laut is sie auch, hat 2 Stromanschlüsse(min 400w).......aber hast recht, gut sieht sie aus....*Nagelvolariandiewand*.....!

edit: Dafür, das sie am anfang ca. 400€ gekostet hat, scheint sie nun gut im preis gefallen (http://www.geizhals.at/eu/a74550.html) zu sein. Für den preis gehen davon bestimmt noch n paar wech!

edit 2. : Hier (http://www.de.tomshardware.com/graphic/20031108/index.html) gibts auch nen Test zu der Karte!

Ja klar, die Karte braucht mindestens 400W.

Man sollte nach einer Vatertagstour nichts mehr posten... ;)

Gruß,

MIC

Gast
2004-05-21, 07:47:46
Original geschrieben von Sumpfmolch
von der performance gehört die karte in das >100€ segment

..und ab 50€ kauf ich mir eine und nagel sie an die wand ;D

>100 EUR = größer als 100 Euro

<100 EUR = kleiner als 100 Euro

... nur als Tipp ;)

siegemaster
2004-05-21, 12:51:22
Mich würde mal Interessieren wie die Karte mit den neuen Treibern von XGI funkt.Denn logischerweise bringt son neuer Treiber verbesserungen mit oda ned?

HOT
2004-05-21, 13:00:45
Hmm.. ich frag mich warum man nur dieses Fehldesign auf den europäischen Markt gebracht hat... ne SingleVolari hätte sicherlich so manchen Käufer gefunden.
Na ja, XGI hat das net so ernst gemeint glaube ich, es war wohl mehr um die Glaubwürdigkeit herzustellen, dass XGI keine Luftschlösser, sondern reale kaufbare Hardware baut ;)
Eigentlich keine schlechte Strategie.

Sumpfmolch
2004-05-21, 13:18:27
Original geschrieben von Gast
>100 EUR = größer als 100 Euro

<100 EUR = kleiner als 100 Euro

... nur als Tipp ;)

guck mal auf die uhrzeit und dann überleg nochmal ob sich da fehler einschleichen könnten :P

Tigerchen
2004-05-21, 15:53:10
Original geschrieben von BesenWesen
Ich frage mich, wieso die das Teil überhaupt in der Form auf den Markt gebracht haben, dazu noch zu dem Preis von über 400 Euro. Die Leistung ist zum Teil so übel, daß die Volari Duo nicht mal die Hälfte wert gewesen wäre. Ist doch klar, daß sich da kaum Käufer finden lassen, außer vielleicht einigen Grafikkarten-Freaks, die Geld wie Heu haben. Ich meine, die werden das Ding ja selbst getestet und gesehen haben, wie schlecht es im Vergleich selbst zu den Mid-Range Karten von ATI und NVIDIA abschneidet.
Nun ist der Ruf von XGI schon nach dem ersten Produkt angekratzt... vielleicht hätten sie mit etwas mehr Entwicklungszeit ja noch was brauchbares aus dem Chip bzw. Treibern machen können.

Ich hör immer was vom ersten Produkt. XGI sind SIS-Leute unter neuem Label. Wenn du dir ne neue Adresse zulegst bist du auch kein neuer Mensch oder? Und was die rausgebracht haben ist nichts weiter als eine aufgebohrte Xabre.

Quasar
2004-05-21, 15:56:00
Original geschrieben von Tigerchen
Und was die rausgebracht haben ist nichts weiter als eine aufgebohrte Xabre.


[...]zwei aufgebohrte Xabre ;D

Tigerchen
2004-05-21, 16:44:45
Original geschrieben von Quasar
[...]zwei aufgebohrte Xabre ;D

Hehe.
Was bringt der Nachfolger? 4fach Power incl. Mini AKW?

Corny
2004-05-21, 17:17:40
Original geschrieben von Tigerchen

Hehe.
Was bringt der Nachfolger? 4fach Power incl. Mini AKW?


habt ihr schon gehört das nVidia den Geforce 2MX wieder aufleben lässt? nur als 8fach version mit 256MB DDR speicher :D



spaß bei seite:

ich hab noch niemanden gesehen der eine volari hat, also noch kein erfahrungsbericht oder sowas. für XGI wäre es doch fast schon billiger gewesen ihren neuen silizium-haufen einfach selber zu testen. dann hätten sie gemerkt das sie keine besondere chance haben und hätten das ding weiter verbessern können. dann wär der chip zwar später raus gekommen aber dafür ein (hoffentlich) guter chip!
wäre sicher auch billiger gewesen, weil gewinn wird die volari-serie bestimmt nicht einfahren.
noch dazu ist das image jetzt alles andere als besser geworden

Super Grobi
2004-05-21, 17:25:06
Ich war einer derjenigen der auf diese Karte "gezittert" hat, aber als ich dann die ersten Tests gelesen habe..... :o :lol: ;(

Also von den Technischen Daten WÄRE die Karte ja recht gut. Was ich von anfang an komisch war ist das sie ja nur 128bit Speicher interface hat. Die Firma agumentiert zwar das mit 2 GPUs a 128bit = 256bit rauskommt, aber das war mir schon recht suspekt. Aber die Performence ist ja so übel das es nicht mit den Treiber erklärbar ist.

Eigenltich recht schade, den ein dritter im Bunde der grossen Herstellern wäre toll gewesen und hätte auch die Preise gedrückt.

SG

Corny
2004-05-21, 18:03:52
Original geschrieben von Super Grobi
Ich war einer derjenigen der auf diese Karte "gezittert" hat, aber als ich dann die ersten Tests gelesen habe..... :o :lol: ;(

Also von den Technischen Daten WÄRE die Karte ja recht gut. Was ich von anfang an komisch war ist das sie ja nur 128bit Speicher interface hat. Die Firma agumentiert zwar das mit 2 GPUs a 128bit = 256bit rauskommt, aber das war mir schon recht suspekt. Aber die Performence ist ja so übel das es nicht mit den Treiber erklärbar ist.

Eigenltich recht schade, den ein dritter im Bunde der grossen Herstellern wäre toll gewesen und hätte auch die Preise gedrückt.

SG

ich hätte die Karte auch gerne weiter vorne gesehen.

wie es aussieht schaffts wohl so schnell keiner. und dabei waren es mal soviele hersteller die recht gut im rennen waren: NVidia und ATI - ganz klar. dann gabs ja mal 3Dfx, S3, Matrox....
alle mehr oder weniger tot :-(

Omnicron
2004-05-22, 01:35:39
Doch auf der Volari fanseite haben einige eine Duo http://www.volarigamers.com/modules/ipboard/index.php?showforum=1
Wie die damit zufrieden sind ist eine andere Frage. ;D

Edit: Erfahrunsgbericht eines deutschen Users:
http://www.forum-inside.de/cgi-bin/forum/topic.cgi?forum=3&topic=4068

Ailuros
2004-05-22, 03:00:19
*seufz* Ich war so bloed und hab das Volarigamers board besucht. Klingt so in etwa wie das alte 3dhq board :lolaway:

BesenWesen
2004-05-22, 03:54:20
Original geschrieben von Tigerchen

Ich hör immer was vom ersten Produkt. XGI sind SIS-Leute unter neuem Label. Wenn du dir ne neue Adresse zulegst bist du auch kein neuer Mensch oder? Und was die rausgebracht haben ist nichts weiter als eine aufgebohrte Xabre.


Das ist schon richtig und mir bekannt, nur wurde dieses Label ja von SIS ins Leben gerufen, um damit als dritter Mitspieler im Kampf zwischen ATI und NVIDIA mitzumischen... also eine Marketingaktion, bei der man den Mund ziemlich voll genommen hat. Die Volaris sind ja nun die ersten Produkte unter diesem neuen Label und geben dann gleich eine überaus schwache Vorstellung ab... so wird sich der Markenname XGI sicher nicht als Synonym für hochwertige Grafikkarten/-Chips etablieren, was SIS mit dieser Aktion ja eigentlich beabsichtigt hat, da ihr Ruf auf dem Grafikkartensektor bislang ziemlich schlecht bzw. gar nicht vorhanden ist.
Das nenne ich mal einen Blattschuss ins Sachen fehlgeschlagenes Marketing.

Hellfire-Torrod
2004-05-22, 11:12:39
Original geschrieben von Omnicron
Doch auf der Volari fanseite haben einige eine Duo http://www.volarigamers.com/modules/ipboard/index.php?showforum=1
Wie die damit zufrieden sind ist eine andere Frage. ;D

Edit: Erfahrunsgbericht eines deutschen Users:
http://www.forum-inside.de/cgi-bin/forum/topic.cgi?forum=3&topic=4068

Der erfahrungsbericht ging dan in die Hose, denn die Karte rauchte nach 40 minuten test ab (http://www.volarigamers.com/modules/ipboard/index.php?showtopic=222)

Sumpfmolch
2004-05-22, 13:18:45
Original geschrieben von Hellfire-Torrod
Der erfahrungsbericht ging dan in die Hose, denn die Karte rauchte nach 40 minuten test ab (http://www.volarigamers.com/modules/ipboard/index.php?showtopic=222)

;D

Tigerchen
2004-05-22, 16:58:25
Original geschrieben von BesenWesen
Das ist schon richtig und mir bekannt, nur wurde dieses Label ja von SIS ins Leben gerufen, um damit als dritter Mitspieler im Kampf zwischen ATI und NVIDIA mitzumischen... also eine Marketingaktion, bei der man den Mund ziemlich voll genommen hat. Die Volaris sind ja nun die ersten Produkte unter diesem neuen Label und geben dann gleich eine überaus schwache Vorstellung ab... so wird sich der Markenname XGI sicher nicht als Synonym für hochwertige Grafikkarten/-Chips etablieren, was SIS mit dieser Aktion ja eigentlich beabsichtigt hat, da ihr Ruf auf dem Grafikkartensektor bislang ziemlich schlecht bzw. gar nicht vorhanden ist.
Das nenne ich mal einen Blattschuss ins Sachen fehlgeschlagenes Marketing.

So kann ichs unterschreiben.:)

Super Grobi
2004-05-22, 17:20:12
SRY, ich hab meinen Stuhl eingenässt,

ich hab gerade den Erfahrungsbericht gelesen (nur die 1.hälfte). Das kann ja wohl nicht wahr sein. Wer sich diese Karte gekauft hat und diese nicht Umgetauscht hat, hat einen hammermässigen Schaden. FarCry= nur spielbar auf LOW; NFS-U= nur spielbar auf LOW.

Was soll man den bitte mit dieser Karte anfangen? Da trösten die 100 FPS bei Counterstrike wohl kaum. Da muss ich ja davon ausgehen das bei CS eine "richtige" Karte dann locker 300+ FPS schafft.

Unglaublich wie man so einen Müll auf den Markt bringen kann.

"kopfschüttel³"

SG

Hellfire-Torrod
2004-05-22, 17:55:36
Naja, immerhin hat mal jemand "versucht" sich Ati und NVidia in den weg zu "stellen"...
Obs halt eben glückt, is die andere frage. Soweit ich weis, redet heute aber niemand mehr groß über die Legendäre XGI Volari V8 Duo oder wie immer sie heisen mag!

Tigerchen
2004-05-22, 18:47:25
Original geschrieben von Hellfire-Torrod
Naja, immerhin hat mal jemand "versucht" sich Ati und NVidia in den weg zu "stellen"...
Obs halt eben glückt, is die andere frage. Soweit ich weis, redet heute aber niemand mehr groß über die Legendäre XGI Volari V8 Duo oder wie immer sie heisen mag!

....oder über die legendäre Matrox Pahelia. Obwohl sie Borsti so schön auf Giga präsentiert hat. Jedi Knight auf 3 Bildschirmen gleichzeitig!

Corny
2004-05-23, 18:29:55
oh, der erfahrungsbericht ist heftig.
das habe ich mit treiber-inkompatibilität gemeint :D
mal ganz abgesehen davon das die karte langsam ist.


aber wie schon erwähnt wurde ist es gut das es zumindest mal jemand versucht hat sich gegen ATI und nVidia zu stellen. ich hoffe aber das XGI nicht so leicht aufgibt noch eine neue karte bringt. wenn sie ihre hausaufgaben machen und die fehler ausbesser könnten sie zur konkurrenz werden

Schwarzmetaller
2004-05-25, 19:51:38
Original geschrieben von Corny
ich hätte die Karte auch gerne weiter vorne gesehen.

wie es aussieht schaffts wohl so schnell keiner. und dabei waren es mal soviele hersteller die recht gut im rennen waren: NVidia und ATI - ganz klar. dann gabs ja mal 3Dfx, S3, Matrox....
alle mehr oder weniger tot :-(

Also die XGi mit 3dfx, Matrox und S3 auf eine Stufe zu stellen, ist schon ein arger Witz:
-Matrox hat noch nie wirklich Karten für Gamer gemacht (ausgenommen die G400Max)
-3dfx ist übernommen wurden, wg. keine Innovationen (das könnte XGI-blühen)
-S3 verdient sich ne goldeneNaseim LowEnd Chipsätzen á la UniChrome...trotzdem: bin ich gespannt auf den DeltaChrome

Die DuoVolari is´n Schlag ins Wasser, das läßt sich nicht verhehlen..jedoch frag ich mich, wieso die Single Volari nicht gekommen ist.

MFG
Schwarzmetaller

BubbleBoy
2004-05-25, 20:15:24
.

Blacksoul
2004-05-25, 21:19:44
Ich weiß auch nicht, irgendwie will ich mir schon eine Kaufen.

Irgendwie hat die Karte was...
Ich weiß nur nicht was...
Was sie ja nicht hat ist Performance ;D

Irgendwann wird die Karte mal sammlerwert haben ;)

Radeonator
2004-05-25, 21:38:57
Naja, aber immerhin holen XGI mit jedem Treiber release mehr Performance aus der Karte...

Aber erklärt mir das mal jemand bitte :

KLICK MICH ENDLICH (http://translate.google.com/translate?hl=de&sl=fr&u=http://www.vtr-hardware.com/articles/a4007_0.html&prev=/search%3Fq%3Dhttp://www.vtr-hardware.com/articles/a4007_0.html%26hl%3Dde%26lr%3D%26ie%3DUTF-8%26sa%3DG)

Schwarzmetaller
2004-05-25, 22:11:33
Ich bin recht gut im übersetzte Handbücher übersetzen (nicht doppelt gemoppelt ;))

1. Teil: Der Graka-Markt wird von ATI und NVidia dominiert, aber es gibt zwei neue Konkurrenten: Ex-Sis/XGI und Via/S3

2. Teil: Sis hatte schon den Xabre am Start, ein guter Chip (Preismäßig im GF4MX-level angesiedelt, aber mit mehr Potential....und mieseren Treibern
Via bzw.S3 wollte mit dem Savage XP kontern, das war aber ein noch größerer Mißerfolg (nicht nur die Treiber waren mies, sondern auch der Chip an sich)

S3 war früher im Grafikchipmarkt recht erfolgreich...am erinnere sich an die Virge und die alten Savage-Chips.
Außerdem war S3 in der Kreation der T&L-technik involviert (Savage 2000 -> Diamond Viper II), Wegen der Forschungsergebvnisse auf dem Grafikchipsektor wurde S3 von Via übernommen.

3. Teil: Anfang Juni hat sich die Grafiksparte von Sis gelöst und agiert unter dem Namen XGI.

Via/S3 hat sich mit dem Deltachrome zurückgemeldet, jedoch soll nur der MidRange/Low End-Breich bedient werden, ein projektierter Highendchip namens Savage F1 wurde von via/s3 aufgegeben.

In diesem Test gehts um MidRange-Karten (Volari Duo und Deltachrome S8.
Als Vergleichskarten sind Radeon 9600SE, Radeon 9600, Radeon 9600 Pro, GeforceFX 5600 und GeforceFX 5600XT mit dabei.

Den technischen Teil erspar ich mir hier..das einzige was wirklich interssant ist, ist die Aussage, daß der Deltachrome S8 nur 2x FSAA beherrschen soll.

MFG
Schwarzmetaller

Muselbert
2004-05-26, 12:31:28
Original geschrieben von Super Grobi
SRY, ich hab meinen Stuhl eingenässt,

ich hab gerade den Erfahrungsbericht gelesen (nur die 1.hälfte). Das kann ja wohl nicht wahr sein. Wer sich diese Karte gekauft hat und diese nicht Umgetauscht hat, hat einen hammermässigen Schaden. FarCry= nur spielbar auf LOW; NFS-U= nur spielbar auf LOW.

Was soll man den bitte mit dieser Karte anfangen? Da trösten die 100 FPS bei Counterstrike wohl kaum. Da muss ich ja davon ausgehen das bei CS eine "richtige" Karte dann locker 300+ FPS schafft.

Unglaublich wie man so einen Müll auf den Markt bringen kann.

"kopfschüttel³"

SG


NFS-Underground auf low? :O
Das geht ja sogar mit meiner Geforce4 Ti4200 mit 64Mb RAM besser!! Mindestens Mittel oder Hohe Einstellungen!
Ganz so schlecht hätte ich die Karte dann doch nicht eingeschätzt!!

[GCW]Frederik
2004-05-29, 18:25:17
Eine Frage am Rande: Gibt es eine Möglichkeit einzusehen wie viele Grafikkarten/Prozessoren eines Typs in Deutschland insgesamt verkauft wurden?

Das passt jetzt zwar nicht zu 100 Prozent zum Thema, aber ich wollte jetzt auch kein neues eröffnen.

Tomahawk
2004-06-03, 15:27:44
"
-Matrox hat noch nie wirklich Karten für Gamer gemacht (ausgenommen die G400Max)
"

schon mal was von Der Mystique(220) gehoert? Die g400max war keine gamerkarte.

ow
2004-06-03, 15:32:57
Original geschrieben von Tomahawk
"
-Matrox hat noch nie wirklich Karten für Gamer gemacht (ausgenommen die G400Max)
"

schon mal was von Der Mystique(220) gehoert? Die g400max war keine gamerkarte.

Gehoert schon, nur gamen kann man damit nicht.
Die G400 Mx dagegen ist eine echte Gamerkarte.

Tomahawk
2004-06-03, 16:01:33
"
Gehoert schon, nur gamen kann man damit nicht.
Die G400 Mx dagegen ist eine echte Gamerkarte.
"

lol ... das ist absoluter unfug.

Doomtrain
2004-06-03, 16:05:49
Original geschrieben von Tomahawk
"
Gehoert schon, nur gamen kann man damit nicht.
Die G400 Mx dagegen ist eine echte Gamerkarte.
"

lol ... das ist absoluter unfug.

NeNe, das stimmt schon. Die G400max war mal ein echt heißes Teil...die Mystique war ja noch nichtmal eine 3D Karte...

Gast
2004-06-03, 16:11:29
Original geschrieben von Doomtrain
NeNe, das stimmt schon. Die G400max war mal ein echt heißes Teil...die Mystique war ja noch nichtmal eine 3D Karte...

Als die Mystique raus kam war sie der Renner.Sowas wie jetzt NV40/R420!

Popeljoe@work
2004-06-03, 16:16:39
Kids, what can u expect...?! :)
Die Mystique war nen echter Hammer, 3D Karten musste man damals nicht haben!
Popeljoe

Schwarzmetaller
2004-06-03, 21:01:41
Obwohl die Mystique nicht so spieletechnisch die tolle Wurst war, hatte sie jedoch schon einige 3D-features wie Bilineares Filtern implementiert...war aber letztenendes eine Office-Karte!...gab´s da nicht noch nen Aufsatz mit nem VideoModul..:Rainbowrunner oder sowas?...oder war das die Millenium?
Laut einer der ersten Gamestar-Ausgaben (X-D) war die das ideale Gerät als "Untersatz" für eine Voodoo...
Die Renner hießen zu der Zeit (als an AGP noch nicht zu denken war Diamond Viper330, Elsa Victory Erazor, Diamond Monster 3D und Orchid Righteous und liefen mit NVidia Riva128 bzw 3DFX Voodoo-Chipsatz...

MFG
Schwarzmetaller:):)

ow
2004-06-03, 21:18:24
Original geschrieben von Gast
Als die Mystique raus kam war sie der Renner.Sowas wie jetzt NV40/R420!


Unter welchem APi? :D

ow
2004-06-03, 21:19:52
Original geschrieben von Schwarzmetaller
Obwohl die Mystique nicht so spieletechnisch die tolle Wurst war, hatte sie jedoch schon einige 3D-features wie Bilineares Filtern implementiert..

Bilinear filtern koennen erst die Matrox Chips ab G100 glaube ich.
Mystique und Millenium nicht.

Radeonator
2004-06-03, 21:48:56
Original geschrieben von ow
Bilinear filtern koennen erst die Matrox Chips ab G100 glaube ich.
Mystique und Millenium nicht.

Die Matrox war unter D3D und DirectDraw(was ja damals mehr genutzt wurde...) sehr gut. Mit Voodoo Untersatz unschalgbar gut :)

ow
2004-06-03, 22:04:14
Original geschrieben von Radeonator
Die Matrox war unter D3D und DirectDraw(was ja damals mehr genutzt wurde...) sehr gut. Mit Voodoo Untersatz unschalgbar gut :)

Die Mystique und Millenium? Also unter D3D (welche Version eigentlich?) taugt das nicht viel, DDraw (also 2D) sollte aber recht gut funktioniert haben.

Radeonator
2004-06-03, 22:31:48
Original geschrieben von ow
Die Mystique und Millenium? Also unter D3D (welche Version eigentlich?) taugt das nicht viel, DDraw (also 2D) sollte aber recht gut funktioniert haben.

Ups stimmt...das G wechlassen für die pci Variante...war sowieso alles noch DD ;)

die lb
2004-06-04, 02:01:20
oehm, ich hatte damals ne m220 + diamond monster.
die voodoo1 hatte ich bestimmt nicht, weil die mystique so vorteilhafte spielekarte, ganz gewiss nicht.

mictasm
2004-06-04, 03:49:59
Bin ich der einzige, der den letzten Satz nicht versteht?

Schwarzmetaller
2004-06-04, 08:58:44
Original geschrieben von die lb
oehm, ich hatte damals ne m220 + diamond monster.
die voodoo1 hatte ich bestimmt nicht, weil die mystique so vorteilhafte spielekarte, ganz gewiss nicht.

Original geschrieben von mictasm
Bin ich der einzige, der den letzten Satz nicht versteht?

Da stehst du nicht allein im Wald...ich solidarisiere mich! (Und tippe auf den Genuß von ein- oder zwei-
...undzwanzig Pils)

MFG
Schwarzmetaller

Tigerchen
2004-06-04, 16:42:01
Original geschrieben von ow
Unter welchem APi? :D

API? Wurde da Edge AntiAlising für Tomb Raider da nicht unter DOS realisiert?

zeckensack
2004-06-04, 17:34:22
Ich bin eher der Meinung, dass die Mystique damals die teuerste kaufbare de-facto 2D-Karte war, mehr nicht.

Als Voodoo-Untersatz hatte sie nun wirklich keine aussergewöhnliche Eignung. Da konnte man genausogut einen Tseng ET6000, oder'n S3 Trio nehmen, oder oder oder ...

edit:
Oder auch gleich eine Trident GD-5432. Zitat des Bauherrn: "Die Trident für fuffzich Mark".

ow
2004-06-04, 17:49:05
Original geschrieben von zeckensack
Ich bin eher der Meinung, dass die Mystique damals die teuerste kaufbare de-facto 2D-Karte war, mehr nicht.

Als Voodoo-Untersatz hatte sie nun wirklich keine aussergewöhnliche Eignung. Da konnte man genausogut einen Tseng ET6000, oder'n S3 Trio nehmen, oder oder oder ...

edit:
Oder auch gleich eine Trident GD-5432. Zitat des Bauherrn: "Die Trident für fuffzich Mark".

Genau so sehe ich das auch.:)

ow
2004-06-04, 17:51:45
Original geschrieben von Tigerchen

API? Wurde da Edge AntiAlising für Tomb Raider da nicht unter DOS realisiert?

DOS?
Was willst du denn mit Windows-Beschleunigern (so nannnte man diese 2D-Karten damals) unter DOS?

Tigerchen
2004-06-04, 19:12:03
Original geschrieben von ow
DOS?
Was willst du denn mit Windows-Beschleunigern (so nannnte man diese 2D-Karten damals) unter DOS?

Tomb Raider I war tatächlich ein DOS-Spiel dem mittels eines Patches 3D-Beschleunigung unter DOS beigebracht wurde. Eine der unterstützten Grafikkarten nannte sich Matrox Mystique.

z3ck3
2004-06-04, 19:34:00
Die Mystique war eine der ersten 3D Karten in meinen Augen. TombRaider sah z.B. mit Patch beser aus und war schneller etc. Sie wurde damals mit Destruction Derby 2 und Mechwarior 2 ausgeliefert. Und noch ein game, welches auch immer. Nach der Karte hatte ich paralel dazu die Vodoo 1. Das war natürlich dann hammer. Als ich nen Rechner mit der Riva 128 hatte bekam ich das glatte kotzen. 2D mies + 3D mies. Da war die Mystique ja besser. Und die Voodoo um längen... Ich kannte ne menge Leute, die bis vor 2 Jahren noch G450 von matrox und Vodoos eingesetzt haben zum zocken.


(sorry wennd as ein wenig unkoordiniert geschireben ist, bin müde + krank *hust*)

misterh
2004-06-04, 20:24:16
Jetzt aber zum richtigen Thema bitte. und zwar Volari.

und nicht Matrox Mystique oder Millenium :madman:

Uller
2004-06-04, 22:17:05
Hey, prima Offtopic!
Ich habe hier gerade eine Mystique am Laufen, mit 2MB RAM extra aufgesteckt! Kann nichtmal 1280x1024 mit 32 Bit Farben, da der Speicher dafür logo zu klein ist.
Laut DxDiag geht DirectDraw einwandfrei, Direct 3D ist ausgegraut :(

Gast
2004-06-04, 22:53:40
Original geschrieben von ow
DOS?
Was willst du denn mit Windows-Beschleunigern (so nannnte man diese 2D-Karten damals) unter DOS?

Wie bitte? Ein einfacher Windows-Beschleuniger kostete auch damals nicht ein Vermögen! Sie war die erste 2D Karte die auch absolut Spieltauglich war.Voodoo hatte nur 3D damals und war Addon.Kein Vergleich! Mit meiner Mystique 4MB spielte ich damals Quake, Tomb Raider, NFS etc. und liefen super.Danach kamen die Rivas, Voodoo 2 etc.

z3ck3
2004-06-05, 03:23:01
Wir sollen wieder zur Volari zurück:

Laut DxDiag geht DirectDraw einwandfrei, Direct 3D ist ausgegraut

bei der Volari? :grübel:

Uller
2004-06-05, 08:50:27
Nö, bei der Mystique.

Thanatos
2004-06-17, 23:27:57
Ich weis nicht obs einer von euch geschrieben hat.(hab mir nich alle nachrichten durchgelesen aber.............


von XGI sollte demnächst auch ne Single variante rauskommen
die laut PCGH (Die Zeitschrift meines vertrauens^^) sogar noch schneller als die DUO sein (ROFL)


Aber was ich auch gut finde ist die Volari Anzeige die man als in der PCGH sieht "Stärke deine Spielepower". : D


Einige Lustige Treiberbugs sind ja auch das COD Battlefield und manch andere spiele mit 8fps geradezu rasen

Ausserdem wurde die XGI Duo ja getestet, leistungsmäßig war sie (eigentlich) sogar unter ner Fx 5200.

radeonator@work
2004-06-18, 08:42:16
Trotz allem, mich würden aktuelle Benches der Single Variante wirklich interessieren. Genau wie die IQ :spock:

Corny
2004-06-18, 19:36:37
Original geschrieben von radeonator@work
Trotz allem, mich würden aktuelle Benches der Single Variante wirklich interessieren. Genau wie die IQ :spock:


allerdings! wären sehr interessant...



ob die XGI mitarbeiter wohl alle dazu gezwungen werden in ihren heimrechnern Volari's einzubauen um den marktanteil zu erhöhen? :freak:

aber wenn von denen ein vernünftiger zocker dabei ist baut er sich die karte nicht rein. sie ist einfach zu langsam, da kann XGI machen was sie wollen...

aths
2004-06-18, 20:02:06
Original geschrieben von Corny
ob die XGI mitarbeiter wohl alle dazu gezwungen werden in ihren heimrechnern Volari's einzubauen um den marktanteil zu erhöhen? :freak: Volaris – ohne Apostroph, bitte :)

Original geschrieben von Corny
aber wenn von denen ein vernünftiger zocker dabei ist baut er sich die karte nicht rein. sie ist einfach zu langsam, da kann XGI machen was sie wollen... Eigentlich sollte ein Chip mit 8 TMUs und ~ 300 MHz nicht zu langsam sein :kratz2: Mich würde interessieren, was der Chip denn nun wirklich an Textur- und Recheneinheiten hat.

zeckensack
2004-06-18, 20:05:11
Also ich kauf' mir erstmal keine. Und wenn ich's mir irgendwann anders überlegen sollte, nehme ich garantiert keine Dual-Version.