PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : XGI Volari V8 Ultra Pics + Benchmarks


misterh
2004-02-21, 17:16:42
http://hardware.mydrivers.com/pages/images/red-2004-02-17-image0002.jpg
http://hardware.mydrivers.com/pages/images/red-2004-02-17-image0009.jpg

3DMark01SE
http://hardware.mydrivers.com/pages/images/red-2004-02-17-image0042.gif

3DMark03 340
http://hardware.mydrivers.com/pages/images/red-2004-02-17-image0044.gif

Splinter Cell
http://hardware.mydrivers.com/pages/images/red-2004-02-17-image0068.gif

3DMark03 4xAA 4xAF
http://hardware.mydrivers.com/pages/images/red-2004-02-17-image0078.gif

???
http://hardware.mydrivers.com/pages/images/red-2004-02-17-image0085.gif

Link: hier (http://hardware.mydrivers.com/pages/200402171838_60388.htm)

dav133
2004-02-21, 17:23:24
Preis? Also die Leistung ist schon mal nicht berauschend...

GUNDAM
2004-02-21, 19:28:37
Die Volari Karten sind der letzte schrott. Die Vorserienmodelle haben zumindest im PCGH Test ziemlich mies abgeschnitten.

reunion
2004-02-21, 19:35:50
Original geschrieben von Jean-Luc Picard
Die Volari Karten sind der letzte schrott. Die Vorserienmodelle haben zumindest im PCGH Test ziemlich mies abgeschnitten.

ACK, ohne der unzähligen Cheats die sich in den Treibern verstecken sinkt die Leistung ins Bodenlose...

tokugawa
2004-02-21, 19:51:19
Also, die Benchmarks sehen zumindest besser aus wenn man die DUO Variante mit einbezieht... für mich sieht's zumindest so aus als hätt die DUO Variante absolut keinen Vorteil.

Endorphine
2004-02-21, 19:56:36
Wir wollen den S3 Deltachrome, keine schrottigen Volaris. ;(

Quasar
2004-02-21, 20:02:49
Original geschrieben von Endorphine
Wir wollen den S3 Deltachrome, keine schrottigen Volaris. ;(
I second that!

stickedy
2004-02-21, 20:19:13
DeltaChrome, DeltaChrome!

apollo
2004-02-21, 20:26:37
*mitsing*

robbitop
2004-02-21, 20:34:39
los ab in den Chor wo ihr hingehört ;P

mal im Ernst, in Relation zum Duo ist der single V8 wirklich nicht soo schlecht, zumal man immer sehen muss dass dieser deutlich niedriger als seine Konkurrenz getaktet ist. Und er unterstützt MSAA was technisch nicht verkehrt ist. Ihm fehlen ein paar Dinge wie Color Compression ect. Dafür steht er soo schlecht nicht dar.

Ich habe Hoffnung dass die erstwe XGI Eigenentwicklung oder die zweite mal für Furore sorgt. XGI hat als einziger das Budget und die Kraft, die Materialschlacht mit den beiden Top IHVs als 3. zu bestreiten.

Man darf nicht vergessen, dass XG40 eine SiS Entwicklung ist und dass noch kein Meister vom Himmel gefallen ist (siehe R100-R200)

dav133
2004-02-21, 21:29:29
Die treiber sind aba richtig geil übersetzt (letzte PCGH letzte Seite)

driver = Fahrer
Chipclock = Mechanismusuhrzeit

Krasser Übersetzer ;D

StefanV
2004-02-21, 21:49:32
Original geschrieben von robbitop
mal im Ernst, in Relation zum Duo ist der single V8 wirklich nicht soo schlecht, zumal man immer sehen muss dass dieser deutlich niedriger als seine Konkurrenz getaktet ist.Und er unterstützt MSAA was technisch nicht verkehrt ist. Ihm fehlen ein paar Dinge wie Color Compression ect. Dafür steht er soo schlecht nicht dar.

Das kann nicht dein Ernst sein, oder??

LOCHFRASS
2004-02-21, 22:33:42
Original geschrieben von dav133
Die treiber sind aba richtig geil übersetzt (letzte PCGH letzte Seite)

driver = Fahrer
Chipclock = Mechanismusuhrzeit

Krasser Übersetzer ;D

löl das schlägt sogar 3dfx :freak:

Original geschrieben von dav133
Preis? Also die Leistung ist schon mal nicht berauschend...
Original geschrieben von Jean-Luc Picard
Die Volari Karten sind der letzte schrott. Die Vorserienmodelle haben zumindest im PCGH Test ziemlich mies abgeschnitten.
Original geschrieben von reunion
ACK, ohne der unzähligen Cheats die sich in den Treibern verstecken sinkt die Leistung ins Bodenlose...

Schon mal dran gedacht, dass das die nur als Billigkarte im 5700 U/9600 XT Segment angesiedelt ist?

Die Fanboys hier wollen wohl keine Konkurrenz zu ihren Lieblingsfirmen...

dav133
2004-02-21, 22:38:50
Was wird sie denn kosten? Alles über 120€ wäre zu teuer...

GUNDAM
2004-02-21, 22:45:21
Original geschrieben von dav133
Was wird sie denn kosten? Alles über 120€ wäre zu teuer...

Die Volari Ultra soll rund € 180 kosten.

Gast
2004-02-21, 22:48:48
Original geschrieben von robbitop
los ab in den Chor wo ihr hingehört ;P

mal im Ernst, in Relation zum Duo ist der single V8 wirklich nicht soo schlecht, zumal man immer sehen muss dass dieser deutlich niedriger als seine Konkurrenz getaktet ist. Und er unterstützt MSAA was technisch nicht verkehrt ist. Ihm fehlen ein paar Dinge wie Color Compression ect. Dafür steht er soo schlecht nicht dar.

Ich habe Hoffnung dass die erstwe XGI Eigenentwicklung oder die zweite mal für Furore sorgt. XGI hat als einziger das Budget und die Kraft, die Materialschlacht mit den beiden Top IHVs als 3. zu bestreiten.

Man darf nicht vergessen, dass XG40 eine SiS Entwicklung ist und dass noch kein Meister vom Himmel gefallen ist (siehe R100-R200)
Also erstens ist Volari MSAA = Blurfilter und Volari AF = anderes LOD Bias Oo
und zweitens war der R100 zu seiner Zeit wohl um LÄNGEN besser als der XG40 heute

Sumpfmolch
2004-02-21, 22:48:51
bestimmt wieder ein fall von:

3dmark01: 11421 punkte
3dmark03: 2850 punkte
ut2004: 20 fps
X2: 5 fps




*eg*

reunion
2004-02-21, 23:15:48
Original geschrieben von LOCHFRASS
löl das schlägt sogar 3dfx :freak:





Schon mal dran gedacht, dass das die nur als Billigkarte im 5700 U/9600 XT Segment angesiedelt ist?

Die Fanboys hier wollen wohl keine Konkurrenz zu ihren Lieblingsfirmen...

Wer sowas schreibt hat sich wohl noch nich viele Reviews der Volari angesehn...

Wie schon gesagt, ohne den unzähligen Cheats im Treiber erreicht man max. FX5200 Leistung (sehr schön im Xbitlabs-Review zu sehn) und dass für 180€?? Wo man für 190€ ne 9800pro bekommt?

robbitop
2004-02-22, 01:13:51
achnee es war SS was er unterstützte sorry.
Ich sehe den Volari nicht als R100 Pendant. Denn XG40 ist eine SiS Entwicklung. XG45 oder XG50 werden die erste eigenentwicklung sein. Das wird mein R100 Pendant ;)

stickedy
2004-02-22, 01:24:34
Völlig wurscht, ob die Grafiksparte unter dem Namen SiS oder unter dem Namen XGI segelt. Die Leute sind die gleichen und ich möchte doch ganz stark anzweifeln, dass die paar Entwickler von Trident (sofern denn überhaupt welche übrig geblieben sind) das Team verbessern... Zumindest nicht in der Hinsicht, dass da was ultra-schnelles rauskommt. Trident hatte ja eher Erfahrung bei sparsamen Chips.

Und das XGI da so wahnsinniges Budget hat, möchte ich doch auch mal stark anzweifeln: SiS tümpelt seit Jahren in der Verlustzone und UMC macht ja auch net gerade ein blendendes Geschäft... IMHO hätte das S3 (wenn es nur auf die zwei beschränkt) wesentlich bessere Voraussetzungen dank VIA!

robbitop
2004-02-22, 01:47:56
450Mio $ Beträgt das Budget afair. Das ist nicht schlecht im Gegensatz zu anderen IHVs (ausser NV/ATi). SiS hatte damals kein Interesse und keine Ressourcen für High End Beschleuniger. Das änderte sich nun mit XGI. Das kann einiges beudeuten. siehe ATi. Seit dem Daver Orton dabei ist, WILL man High End Chips fertigen und seit dem sind ATis Chips auch ein wenig anders.

Entwickler sind immer kostbar und jeder von ihnen ist wichtig, also auch die Leute von Trident, die sollten know how haben. Mit dem Budget und einem anderen Ziel als SiS kann imo sehr wohl was daraus werden.

stickedy
2004-02-22, 02:07:16
SiS hatte genauso ein Interesse dran High-End-Chips zu machen, wie jetzt XGI, siehe Marketing vom Xabre! Nur leider hat man halt nicht die passenden Chips dafür hinbekommen...
SiS ist immer noch die Mutterfirma, auch wenn XGI gerne die Eigenständigkeit betont. XGI ist bei SiS ungefähr so Eigenständig wie S3 und Centaur bei VIA...
Oder glaubst du das Geld von XGI kommt vom lieben Gott? Das kommt von SiS und UMC. Wobei UMC den Laden bei zu großen Verlusten wohl schneller absägt als man denkt.

Du kannst es drehen und wenden wie du willst, aber XGI = Grafiksparte von SiS mit den gleichen Ingenieuren und mit den gleichen Verantwortlichen.

Das wird nix, die hängen immer weiter zurück. ATI hat schon immer gute Grafikkarten gebaut, Rage 128 und 128 Pro waren nicht wirklich schlechter als die Konkurrenz. Schlecht waren die Treiber. Und dann kam noch das Entwickler-Team von ArtX, das hat ATI zusätzlich beflügelt, war wohl der beste Einkauf der Firmengeschichte.
XGI hat diese Möglichkeit nicht, oder möchtest du im Ernst Trident mit ArtX vergleichen? ;)

Tigerchen
2004-02-22, 04:47:44
Also alles bis Rage 128 war wohl nicht so dolle. Und alles was bis zum R300 erschien hat mich nicht wirklich überzeugt. Aber gut. Das war dann schon Geschmackssache.

Auf jeden Fall kam von SIS noch nie was Brauchbares in Sachen 3D Beschleuniger. Würde mich ja freuen wenn das sich ändern würde. Ich finde Wettbewerb ja gut. Allein mir fehlt der Glaube.....

robbitop
2004-02-22, 11:59:59
ich sah lediglich eine Analogie.
Ich weiss woher das eld kommt, so ists nicht.
Ich bin der Meinung dass man mehr Manpower und anderes Zielsetzungen hat und andere Budgetgrößen als damals bei SiS. Damals sollten Die Grafikösungen evl auch in Chipsätze als IGP passen. Gut Xabre war ein erster Versuch. Das war aber auch schon alles und was willst du schon aus einem aufgebohrten Xabre ala XG40 machen?

Ich habe noch Hoffnung und sage: abwarten. Vieleicht kriegen sie NV/ATi nicht wirklich bekämpft, aber eine brauchbare günstige alternativ Midrange Lösung ist immer gut. S3 und XGI könnten im Midrangebreich nächstes Mal sicher mehr Anteile ziehen und wer weiss vieleicht wird XG50/60 irgendwann mal eine High End Alternative. Ein paar % zurück aber günstiger. Ähnliches erwarte ich von Series5 auch wenn sie von der Featureseite sicher der King wird, glaube ich noch nicht an einen NV40/R420 killer das wird so schnell niemand schaffen.

Aber ich denke ich hab das ganze evl etwas zu optimistisch gesehn. Aber dumm sind die Leute bei SiS/UMC sicher nicht. Ich gehe einfach mal davon aus, dass es besser wird ;)

Ailuros
2004-02-22, 14:51:20
ich sah lediglich eine Analogie.
Ich weiss woher das eld kommt, so ists nicht.

Und wo wurden diese Summen genau eingesetzt?

Ich bin der Meinung dass man mehr Manpower und anderes Zielsetzungen hat und andere Budgetgrößen als damals bei SiS.

Erklaert mir aber nicht warum der XabreII Design nicht zeitig eingestampft wurde und dann gleich von Anfang an neu entwickeln. Schon mal was von "image" oder "mindshare" gehoert? Oder willst Du mir weissmachen dass die Volari Linie gute "publicity" fuer eine "neue" Firma wie XGi war/ist?

Gut Xabre war ein erster Versuch. Das war aber auch schon alles und was willst du schon aus einem aufgebohrten Xabre ala XG40 machen?

Es gibt Grafik-Loesungen von SiS schon seit 1998, und zwar jedes Jahr zumindest ein Produkt; SiS ist fast genauso lange im 3D Markt wie andere IHVs auch. Was ich mit einem aufgebohrten Xabre machen wuerde? Wo ist ein WC-spuelen smiley wenn man ihn braucht? Und ja ich weiss was das fuer Nachteile heissen wuerde; aber es waere IMHO besser so gewesen.

S3 und XGI könnten im Midrangebreich nächstes Mal sicher mehr Anteile ziehen und wer weiss vieleicht wird XG50/60 irgendwann mal eine High End Alternative.

S3 plant einen DX-Next chip fuer 2005. Ob dieser high end sein wird, bleibt abzusehen. Wenn sie aber DeltaChrome nicht bald genug ausrollen und ueberhaupt in den laptop/notebook Markt, sehe ich die Unkosten fuer R&D nicht so leicht wieder reinfliessen.

Die Frage ist bei beiden wie lange und bis zu welchem Grad man rote Zahlen tolerieren kann.

Ähnliches erwarte ich von Series5 auch wenn sie von der Featureseite sicher der King wird, glaube ich noch nicht an einen NV40/R420 killer das wird so schnell niemand schaffen.

Was genau verstehst Du unter einem "Killer"? Waere sagen wir mal 50% mehr Leistung im Durchschnitt genug? Wenn ja schoen, aber um einiges teurer als die Konkurrenz waere man dann schon....

Angenommen das Preis/Leistungsverhaeltnis im Vergleich zur Konkurrenz ist so gut wie man auch im low-end mit KYRO sah, ist es eher in dem Fall ein sehr unerwarteter Erfolg von einem kleinen Spieler wie IMG und das aus dem Nichts.

IMG hat ein total anderes Business-modell als alle anderen, da sie primaer IP verkaufen. Kleine Unkosten aber auch grosse Margen. Umsatz ist natuerlich so klein wie man sich gar nicht vorstellen kann.

Hypothese: ST Micro zahlte etwa 1.5M $ pro Lizenz fuer Serie3,4,5.

3*1.5M= 4.5M $

Im PC Raum verkaufte KYRO etwa 2Mio. Einheiten insgesamt. Schaetzungsweise ~5$ royalty pro chip (auf 2001/2 verteilt):

5*2.0M= 10M $

10+4.5 = 14.5M $

Ich kann jetzt die Entwicklungs-Unkosten von Serie3/4 zwar nicht einschaetzen (auf jeden Fall geringer als man sich vorstellen koennte), aber da MBX ein hybrider 3/4 chip ist, rechne zu den obrigen 14.5M $ noch alle bis jetzt unterschriebenen Lizenzen von MBX dazu, diejenigen die noch dazu kommen und eingeschaetze royalties fuer das erste Jahr der Verfuegbarkeit von MBX von bis zu 5 Mio Einheiten insgesamt.

Gleiches ist auch von Serie5 zu erwarten: PC/Arcade als Anfang (wenn natuerlich alles nach Plan laeuft) und dann kann man spaeter sicher noch etwas fuer den PDA/mobile oder integrated chipset Markt in der weiten Zukunft ausschlachten.

IP ist eine verheerend schlechte Idee IMHO fuer den PC Raum; aber wenn man es als dazu verwendet um Eindruecke/mindshare zu gewinnen um weitere Lizenzen in andere Maerkten hinzufuegen zu koennen wo die Vorteile eines IP orientierten Business-modells Vorrang nehmen, wird es sehr schnell zum Gewinn-reichen Geschaeft.

robbitop
2004-02-22, 14:57:35
du willst ernsthaft beschreiten XGI hätte eine andere Zielstellung als SiS?
Ausserdem wäre es dumm gewesen den XG40 wegzuschmeissen. Dann hätte man nichts gehabt für eine Weile.

Ich denke man sollte XGI nicht jetzt schon abschreiben, warum sollte man das tun?

stickedy
2004-02-22, 15:19:22
Was wäre schlechter gewesen?
Xabre II aka Volari mit mieserabler Performance, schlechten Treiber, grauenhafter Bilqualität, "Treiber-Cheats" ohne Ende und vernichtender Kritiken oder einfach gar nichts? imho letzteres! Da XGI ja eine "neue Firma" ist, wäre es egal gewesen, ob sie Ende 2003 oder im Herbst 2004 ihr erstes Produkt bringen...

Außerdem möchte auch ich bezweifeln, dass sich die Zielsetzung von XGI von der von SiS unterscheidet. Da man sich jetzt umbenannt hat, konnte man mal die utopischen Ziele hinausplären (war ja schon lächerlich genug), als SiS wäre das eine einmalige Lachnummer gewesen...

robbitop
2004-02-22, 18:18:21
Das mag sein, dass es sich nicht extrem unterscheidet aber ich meine es unterscheidet sich trotzdem.
SiS brauchte eben auch IGPs, XGI nicht mehr. Man gründete XGI um das low Cost image loszuwerden. Und das Entwicklerteam ist inzwischen ja auch etwas größer. Mal sehen was sie daraus machen.
Aber ich gebe zu meine Sicht war etw zu extrem..
Ich gebe sie vorerst nicht auf und wenn es so kommt, wie ich es sage, spendiert ihr beiden mir nen Kasten Bier ;)

Ailuros
2004-02-23, 00:48:37
Original geschrieben von robbitop
du willst ernsthaft beschreiten XGI hätte eine andere Zielstellung als SiS?
Ausserdem wäre es dumm gewesen den XG40 wegzuschmeissen. Dann hätte man nichts gehabt für eine Weile.

Ich denke man sollte XGI nicht jetzt schon abschreiben, warum sollte man das tun?

Haetten sie eine andere Zielstellung gehabt dann haetten sie nie Volari veroeffentlicht.

Ein Jahr ohne eine Grafik-loesung waere keine weiteres Problem gewesen, nur eben die Verschwendung der Entwicklungs-Unkosten fuer XG40. Im Fall einer Stornierung fallen aber auch die eher grossen Unkosten der Massenproduktion weg, die sich XGi ueberhaupt nach der sehr grosszuegigen Preisreduktion wohl nicht mehr reinholen werden kann.

Wo erwaehnte ich abschreiben? Wenn sie es schaffen eine anstaendige Loesung mit XG45 zu liefern, werden sie auch anstaendig verkaufen koennen. Nichts was in meinem vorigen Post stand liegt ausserhalb des Moeglichen oder der einfachen Logik. Entweder man lernt von seinen Fehlern und versucht diese zu beheben oder man konfrontiert die Folgen.

Man gründete XGI um das low Cost image loszuwerden.

Und was hat sich geaendert? Volari Duo ist NUR high end was den originalen Preis betraf. Wenn es anders sein sollte moechte ich es gerne hoeren.

Ich gebe sie vorerst nicht auf und wenn es so kommt, wie ich es sage, spendiert ihr beiden mir nen Kasten Bier.

Tut mir leid aber ich gehe keine Wetten ein. Wenn Du nicht einsehen kannst dass mein Punkt nur auf Kritik beruht, was XGi's Entscheidungen betrifft dann reden wir aneinander vorbei. Ein schlechter Einsatz/Anfang ist NIE gut und daran gibt es auch nichts zu verdrehen. Die Aenderung in der Entwicklungs-Philosophie hat sich bis jetzt nicht bewiesen; die bis jetzt bekannten Fakten sprechen mit absoluter Sicherheit dagegen.

Eine Logik der Art: besser Schrott als gar nichts, klingt mir zumindest als sehr verkehrt. Lieber gar nichts als Schrott; ganz einfach weniger Unkosten und keine Blamierung. :)

***edit: fuer die, die es verpasst haben:

http://www.xbitlabs.com/articles/video/display/ut2004.html

robbitop
2004-02-23, 09:58:44
ich sehe sie durchaus ein AiL, nur haben wir beide einfach verschiedene Sichtweisen, wobei du mit dem Punkt vom Wegwerfen sicher Recht hast.
Das mit der Wette war ein Scherz, nicht alles so ernst nehmen ;)

Endorphine
2004-02-23, 12:30:06
Original geschrieben von Ailuros
***edit: fuer die, die es verpasst haben:

http://www.xbitlabs.com/articles/video/display/ut2004.html Hehehe... Man beachte insbesondere die Werte von Deltachrome S8 vs. Volari Duo V8-Ultra (ich hoffe kein Linkschutz). :D

http://www.xbitlabs.com/images/video/ut2004/ut2004_coloss_1600_pure.gif
48,6 fps gegen 18,3 fps. ;D

Und zur Referenz auch bei 1024*768 (eigentlich keine Anforderung mehr heutzutage):
http://www.xbitlabs.com/images/video/ut2004/ut2004_coloss_1024_pure.gif

zild@home
2004-02-23, 12:35:42
gibts auch irgendwo tests von dem ausgangssignal?
vielleicht sind se ja besser als matrox?!

Ailuros
2004-02-23, 12:36:08
Original geschrieben von robbitop
ich sehe sie durchaus ein AiL, nur haben wir beide einfach verschiedene Sichtweisen, wobei du mit dem Punkt vom Wegwerfen sicher Recht hast.
Das mit der Wette war ein Scherz, nicht alles so ernst nehmen ;)

Wenn Du nochmal einen Blick in die Vergangenheit wirfst, dann sieht man schnell wie schwer es ist eine Firma/Projekt fuer sehr lange zu finanzieren wenn nur Verluste abgeschrieben werden koennen.

Ich gebe jeglicher kleinen Firma die von anderen grossen Firmen (wie XGi von UMC/SiS etc) finanziert werden, maximal nach Schaetzung zwei Jahre um den break-even-point zu erreichen. Wenn es selbst dann nicht klappt sieht es eher grau aus, wobei 2 Jahre auch schon sehr grosszuegig sind und natuerlich kommt es dann auch darauf an wie tief jegliche Firma verschuldet ist oder sein wird.

3dfx haette Ende 1999 noch eine Chance gehabt, waere es moglich gewesen ein Darlehen aufzunehmen oder waeren von jemand anders finanziert. Die Chance einer Finanzierung von einer grossen OEM Firma gab es, aber das bloede Management hat auch da nochmal Mist gebaut. Die Banken weigerten sich eine mit ueber 100Mio$ verschuldete Firma zu finanzieren und dabei war es auch egal ob 3dfx einen etablierten Firmennamen hatte, oder gutes technisches Potential hatte wieder auf die Beine zu kommen (Spectre und Nachfolger).

Ailuros
2004-02-23, 12:38:12
Original geschrieben von Endorphine
Hehehe... Man beachte insbesondere die Werte von Deltachrome S8 vs. Volari Duo V8-Ultra (ich hoffe kein Linkschutz). :D



Ich moechte erinnern dass das demo nur mit "normal" settings laeuft und dass DC mit vollem single cycle trilinear laeuft.

Ailuros
2004-02-23, 12:41:39
Original geschrieben von zild@home
gibts auch irgendwo tests von dem ausgangssignal?
vielleicht sind se ja besser als matrox?!

Bei Matrox GPUs ist die DVD-Wiedergabe z.B. beispielhaft gut. Bei einer Volari muss sich der User jetzt hinsetzen und bei DVD-Playback-Programmen mit etlichen settings herumtuefteln (mit fraglichen Resultaten) sonst ist das Resultat so grausam hell, dass einem schnell die Lust fuer DVD vergeht.

Besser als Matrox? *hust*

Endorphine
2004-02-23, 12:51:03
Original geschrieben von Ailuros
Ich moechte erinnern dass das demo nur mit "normal" settings laeuft und dass DC mit vollem single cycle trilinear laeuft. Das streitet ja niemand ab. :) Ändert aber dennoch nichts an der Tatsache, dass der DeltaChrome grundsätzlich konkurrenzfähig ist, im Gegensatz zum Volari.

Du solltest übrigens imho lieber "triTMU" sagen, wenn du das meinst. Single cycle TF lässt sich ja auch mit n*2bi realisieren. Das kann also auch z. B. ein NV15 mit seinen bilinearen TMUs. :bäh:

Zudem: was ist so schlimm daran, dass der DC triTMUs hat und diese ihm dann auch in der Praxis Vorteile verschaffen?

Ailuros
2004-02-23, 13:59:13
Original geschrieben von Endorphine
Zudem: was ist so schlimm daran, dass der DC triTMUs hat und diese ihm dann auch in der Praxis Vorteile verschaffen?

Schlimm? Es ist ein grandioser Vorteil wenn man mit wahrem trilinear solche Leistung landen kann.

Ich will schon gar nicht an die Moeglichkeit denken, dass Volari selbst bei den Zahlen nicht in trilinear lief....

Ailuros
2004-02-23, 14:05:47
Du solltest übrigens imho lieber "triTMU" sagen, wenn du das meinst. Single cycle TF lässt sich ja auch mit n*2bi realisieren. Das kann also auch z. B. ein NV15 mit seinen bilinearen TMUs.

Schon, aber siehe folgendes Beispiel:

GF3@200MHz

8*200 = 1.6 GTexels/s bilinear oder 800 GTexels/s trilinear

DC@300MHz

8*300 = 2.4 GTexels/s bi-/trilinear

Oder?

Endorphine
2004-02-23, 14:37:09
Original geschrieben von Ailuros
Schlimm? Es ist ein grandioser Vorteil wenn man mit wahrem trilinear solche Leistung landen kann.

Ich will schon gar nicht an die Moeglichkeit denken, dass Volari selbst bei den Zahlen nicht in trilinear lief.... Dann brauchst du ja gar nicht zu meckern und kannst dem DC seine solide Leistung ohne AA/AF lassen. :)

apollo
2004-02-23, 14:43:41
*heul*
Endo, Du bist fies.
Musst Du die Grafiken der Benches hier posten? :(

Jetzt will ich erst recht nen DC (F1 ;))...wo bleibt das Teil verdammt nochmal.

Endorphine
2004-02-23, 14:45:01
Original geschrieben von Ailuros
Schon, aber siehe folgendes Beispiel:

GF3@200MHz

8*200 = 1.6 GTexels/s bilinear oder 800 GTexels/s trilinear

DC@300MHz

8*300 = 2.4 GTexels/s bi-/trilinear

Oder? Du meinst sicher 800 MTexel trilinear bei der GF3. ;) Du könntest mir natürlich auch deine GF3 mit 800 Gigatexel/s verkaufen, dann hätte ich für die nächste Zeit ausgesorgt und könnte das NV-triAF endlich in vollen Zügen geniessen. :D

OK, ernsthaft: genau der Sachverhalt ist mir ja auch klar. Wenn man das Kind beim Namen nennt und "triTMU" sagt kommt die Verwirrung erst gar nicht zustande. Single cycle TF geht eben nicht nur mit n*1tri, sondern eben auch mit n*2bi, auch wenn ersteres für TF effizienter ist.

Endorphine
2004-02-23, 14:47:43
Original geschrieben von apollo
*heul*
Endo, Du bist fies.
Musst Du die Grafiken der Benches hier posten? :(

Jetzt will ich erst recht nen DC (F1 ;))...wo bleibt das Teil verdammt nochmal. Ich frage mich auch, warum S3 sogar neue Treiber herausbringt, bei xbitlabs seit Ende 2003 eine Testkarte 'rumkugelt, dort wiederholt gute Ergebnisse bringt und gleichzeitig keine einzige GPU die Hallen von TSMC verlassen darf. ;(

misterh
2004-02-23, 16:04:53
jetzt kostet Volari Duo 310€ (http://www.norskit.de/cgi-nord/preise.cgi?file=link.tpl&u=gast&p=gast&artnr=9697) :)

ich frage mich wielang noch dauert bis unter 180€ kostet? weil in China doch 193$ kostet.

Ailuros
2004-02-24, 01:48:22
Original geschrieben von Endorphine
Du meinst sicher 800 MTexel trilinear bei der GF3. ;) Du könntest mir natürlich auch deine GF3 mit 800 Gigatexel/s verkaufen, dann hätte ich für die nächste Zeit ausgesorgt und könnte das NV-triAF endlich in vollen Zügen geniessen. :D

OK, ernsthaft: genau der Sachverhalt ist mir ja auch klar. Wenn man das Kind beim Namen nennt und "triTMU" sagt kommt die Verwirrung erst gar nicht zustande. Single cycle TF geht eben nicht nur mit n*1tri, sondern eben auch mit n*2bi, auch wenn ersteres für TF effizienter ist.

Ich brauch dringend ein Programm fuer brainfarts und typos :D

Gut dann eben tri-TMUs =)

Radeonator
2004-02-25, 15:15:33
XGI hat vor langer angezeigt das auch die HR aufgestockt werden. Es gibt durchaus positive Reviews, wo die V8Duo gar net soi schlecht ausschaut. Derzeit sind die Treiber sehr verbugt, also ist der Benchie den Endorphine gepostet hat, für den hinteren Körper Bereich...

XGI muss erstmal lernen vernünftige Treiber zu Proggen, was erst durch ein besseres Progger Team zustande kommen kann. Die Xabre wurde NIE als Highend Lösung angepriesen, das ist totaler Schwachsinn!!! ATi hat bis zur R300 gebraucht um nV par bieten zu können und auch erst kurz vorher wurden wirklich gute R200 Treiber herausgebracht, aber das ist natürlich schnell vergessen, wenn Fanboys sich über andere HW ergehen können :zzz:

robbitop
2004-02-25, 16:06:11
es gab gute Treiber für den R200?

Ailuros
2004-02-25, 16:44:33
Original geschrieben von Radeonator
XGI hat vor langer angezeigt das auch die HR aufgestockt werden. Es gibt durchaus positive Reviews, wo die V8Duo gar net soi schlecht ausschaut. Derzeit sind die Treiber sehr verbugt, also ist der Benchie den Endorphine gepostet hat, für den hinteren Körper Bereich...

XGI muss erstmal lernen vernünftige Treiber zu Proggen, was erst durch ein besseres Progger Team zustande kommen kann. Die Xabre wurde NIE als Highend Lösung angepriesen, das ist totaler Schwachsinn!!! ATi hat bis zur R300 gebraucht um nV par bieten zu können und auch erst kurz vorher wurden wirklich gute R200 Treiber herausgebracht, aber das ist natürlich schnell vergessen, wenn Fanboys sich über andere HW ergehen können :zzz:

Links fuer die positive Reviews?

Ich hab uebrigens nie eine R200 gekauft; trotzdem koennte XGi froh sein wenn sie wenigstens so weit wie mit der Rage3D im Vergleich zur Konkurrenz waeren. Kauf Dir doch ne Volari? 300+ euros fuer 20 fps in anspruchsvollen Faellen ist doch das tollste was es schon seit der Voodoo2 gibt (verschmierte Bildqualitaet ist wohl etwa gleich) ;D

Die Xabre wurde NIE als Highend Lösung angepriesen, das ist totaler Schwachsinn!!!

Sagte wer und warum? Volari Duo wurde nichtdestominder trotz allem als "high end" vermarktet; dass es eine schlechtere Idee als jegliche mainstream Loesung von ATI/NV ist, uebersehen wir wohl lieber.

Sumpfmolch
2004-02-25, 22:35:03
Original geschrieben von Radeonator
XGI hat vor langer angezeigt das auch die HR aufgestockt werden. Es gibt durchaus positive Reviews, wo die V8Duo gar net soi schlecht ausschaut. Derzeit sind die Treiber sehr verbugt, also ist der Benchie den Endorphine gepostet hat, für den hinteren Körper Bereich...


die positiven reviews in denen nur die spiele vorkamen auf die massivst optimiert wurde ? ;D

Original geschrieben von Radeonator
XGI muss erstmal lernen vernünftige Treiber zu Proggen, was erst durch ein besseres Progger Team zustande kommen kann. Die Xabre wurde NIE als Highend Lösung angepriesen, das ist totaler Schwachsinn!!! ATi hat bis zur R300 gebraucht um nV par bieten zu können und auch erst kurz vorher wurden wirklich gute R200 Treiber herausgebracht, aber das ist natürlich schnell vergessen, wenn Fanboys sich über andere HW ergehen können :zzz:

allein der preis deklarierts als high end konkurrent...

Radeonator
2004-02-25, 23:27:41
Stimmt, wir haben bei der R200 keine Cheatz gehabt, stimmt wir haben bei der R300 keine Cheatz gehabt, Stimmt wir haben bei nV keine Cheatz gehabt...ehm , achso, das ist in Ordnung, weils ja "die Großen" sind ;D :bonk:

Ach ja, DC, die Wunderwaffe, absolut der Hammer, weil ja S3 draufsteht und die haben vor langer Zeit(mitte- 2/3 vor ende 90er...aber immerhin) mal was zu melden gehabt, nicht zu vergessen Series 5 die Waffe aus dem jenseits... :bonk:

Die Volari ist keine tolle Karte, die Treiber sind Sh1c3 aber dennoch für den Anfang mehr als i.O., da neue Treiber bei SiS eigentlich immer schnell kommen, ein netter einstand.

@Aliuros :zzz: HIER IST DEIN SCHILD!

p.s.: 193$ XCrown Volari Duo...remember Mr.Oberschlau...Test von einem, im "andere Graka" Forum...remember Mr.Oberschlau...oh man, geh spielen!

Coda
2004-02-25, 23:32:28
Also was XGI macht ist um einiges heftiger als nVidia. Weil sie behaupten der Chip kann AA und AF, was er anscheinend nicht kann.
Bei nVidia und ATi kann es der Chip wenigstens ...

Radeonator
2004-02-25, 23:39:19
Endlich, ein Argument, JUHUU!!!!

FSAA kann der Chip btw. , AF soll er laut AF Tester auch können. Nichts desto trotz, braucht XGI bessere Progger und Ingeneure, um in folge Generationen etwas besseres als den XabreII Verschnitt bringen zu können.Soweit gehe ich mit allen Konform...

AlfredENeumann
2004-02-25, 23:40:50
Original geschrieben von robbitop
es gab gute Treiber für den R200?

Ich konnte mich nie über die Treiber vom R200 beklagen.

robbitop
2004-02-26, 00:00:01
ich weiss noch dass wir damals wirklich zu kämpfen hatten mit den ATi Treibern =)

Endorphine
2004-02-26, 00:07:42
Original geschrieben von AlfredENeumann
Ich konnte mich nie über die Treiber vom R200 beklagen. Ja, der 2D-Modus lief auch leidlich. :D

Coda
2004-02-26, 00:35:04
FSAA kann der Chip btw. , AF soll er laut AF Tester auch können.
Kann er nicht. FSAA ist nichts weiter als ein Blur Filter und AF ist ne Änderung beim Mip BIAS.
Das ist Bauernfängerei und verschlimmert die Bildqualität sogar noch

Iceman346
2004-02-26, 01:15:01
Original geschrieben von Radeonator
Stimmt, wir haben bei der R200 keine Cheatz gehabt, stimmt wir haben bei der R300 keine Cheatz gehabt, Stimmt wir haben bei nV keine Cheatz gehabt...ehm , achso, das ist in Ordnung, weils ja "die Großen" sind ;D :bonk:

Ach ja, DC, die Wunderwaffe, absolut der Hammer, weil ja S3 draufsteht und die haben vor langer Zeit(mitte- 2/3 vor ende 90er...aber immerhin) mal was zu melden gehabt, nicht zu vergessen Series 5 die Waffe aus dem jenseits... :bonk:

Die Volari ist keine tolle Karte, die Treiber sind Sh1c3 aber dennoch für den Anfang mehr als i.O., da neue Treiber bei SiS eigentlich immer schnell kommen, ein netter einstand.

Mit dem Unterschied, dass der DeltaChrome von S3 ein Chip ist der im Preisbereich von 200$ liegen soll (leider ist er ja nicht auf dem Markt) und in vielen Spielen deutlich besser performt als die Volari V8 Duo die ursprünglich als High End Karte angekündigt war und auch für über 400 Euro über den Ladentisch ging.
Der Volari ist imo ein Chip der einfach nur peinlich ist für XGI, kein funktionierendes AA/AF, extrem schlechte Performance in vielen Spielen, in anderen nur schnell dank Treibercheats etc. Möglich das einiges davon noch per Treiber verbessert werden kann, aber im momentanen Zustand würde ich nichtmal meinem größten Feind eine solche Karte anraten.

BTW, ein etwas weniger agressiver Ton deinerseits würde der Diskussionskultur in diesem Forum durchaus zuträglich sein.

Ailuros
2004-02-26, 01:17:38
Stimmt, wir haben bei der R200 keine Cheatz gehabt, stimmt wir haben bei der R300 keine Cheatz gehabt, Stimmt wir haben bei nV keine Cheatz gehabt...ehm , achso, das ist in Ordnung, weils ja "die Großen" sind.

Volari hat sich eben die cheating-driver Krone fuer 2003 verdient. Ausser dem und dass sie enorm viel Strom verbraucht, kann sie wohl gar nichts anderes gut oder?

Ach ja, DC, die Wunderwaffe, absolut der Hammer, weil ja S3 draufsteht und die haben vor langer Zeit(mitte- 2/3 vor ende 90er...aber immerhin) mal was zu melden gehabt, nicht zu vergessen Series 5 die Waffe aus dem jenseits...

Ich sehe wir werden erwachsener, wenn uns die Argumente ausgehen.

Die Volari ist keine tolle Karte, die Treiber sind Sh1c3 aber dennoch für den Anfang mehr als i.O., da neue Treiber bei SiS eigentlich immer schnell kommen, ein netter einstand.

"In Ordnung" in was?

@Aliuros HIER IST DEIN SCHILD!

p.s.: 193$ XCrown Volari Duo...remember Mr.Oberschlau...Test von einem, im "andere Graka" Forum...remember Mr.Oberschlau...oh man, geh spielen!

Noch einen Schub hoeheres Niveau. Applaus bitte.

Also:

ich hoffe man sieht den unterschied noch ein bisschen ... beides volari shots...
wie gesagt, bilinear und manchmal etwas wischiwaschi, aber sonst ok.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=116621&perpage=20&pagenumber=2

Netter blur filter uebrigens (na ja auch ohne AA einzusetzen hat man auf diesen AA durch die ganze Verschmierung sowieso "for free").

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=116621&perpage=20&pagenumber=3

Ein paar langweilige Max Payne shots und folgende Links von offiziellen reviews:

http://www.digit-life.com/articles2/volari-duo/index.html

As you can see, Volari demonstrates awful bilinear filtering, while the trilinear one is ok.

The Club3D Volari Duo V8 Ultra is still a raw product. How could they release such a card? The drivers are unsteady and need a lot of work, and the architecture itself does not realize its capabilities. Although the fillrate shows that both chips work it looks as if we had a uniprocessor card in the real applications. Even one chip with 8 pipelines and clocked at 330 MHz must look much better! Maybe the second chip is spare? If the first one burns the second could replace it, is it so? But what for does the card have all those internal buses? :)

The card's beautiful appearance hides so many bugs that it's impossible for the drivers to correct them. Probably, it's the chip developers or driver makers that should be blamed. Even 50% of the card's potential is not realized. We hope that new XGI's products will be more completed.

This products doesn't cost even $150 from the performance standpoint;
This products doesn't cost even $50 regarding compatibility and stability of operation.
No prospects for performance growth as the main problems is hidden in the accelerator's architecture.
Probably, XGI got income only from selling samples of such cards to reviewers because they hardly shared their samples but they are always ready to sell them ;-)
Judging by the number of companies (1-2 at most) that went with this product Volari will be "very popular".
I feel very sorry for Club3D which got into a mess with this product...
We can recommend this card only for hunters for hardware rarities and curious samples. The company's slogan seems to be like this: "why to pay three times less for the speed if there's such a lame dual-chip card".

After the article went live we received information about numerous video cards makers' intention to introduce dual-chip Volari Duo V8 Ultra products priced below $200. In case it happens, there will be rather illusive hope for XGI to gain popularity among users.

Moreover, on the 11th of February a new Reactor driver version (1.02.05) was released. The fresh drivers correct some bugs in certain games and benchmarks. Unfortunately, issues with FarCry were not resolved at this time.

http://www.driverheaven.net/reviews/Volari/update1.htm

Kein Kommentar....

Seite 1 und 3 haben ein paar langweilige flyby UT2k3 Resultate, wobei die Anfrage von Resultaten von Custom timedemos leider nicht erfuellt wurde.

Falscher thread? Wahrscheinlich.

Somit bin ich, die Mehrzahl der Verbraucher, Reviewers und Websites offensichtlich nur blind und voreingenommen und Volari ist nicht so schlecht wie alle sie zu praesentieren versuchen.

Endlich, ein Argument, JUHUU!!!!

Spieglein Spieglein an der Wand....:D

FSAA kann der Chip btw. , AF soll er laut AF Tester auch können. Nichts desto trotz, braucht XGI bessere Progger und Ingeneure, um in folge Generationen etwas besseres als den XabreII Verschnitt bringen zu können.Soweit gehe ich mit allen Konform...

Konnte selbst in AF Testern kein AF sehen. Um der Genauigkeit treu zu bleiben, sollte es so heissen:

FSEBAA: full scene edge blur anti-aliasing
ALO: anisotropic LOD offset

Dann hab ich auch nichts einzuwenden. Auf jeden Fall macht XGi momentan Intel mit deren integrierten Schrott und genauso schlecher Texturen-Qualitaet sehr gute Konkurrenz. Man kann sich ja nur dem wirklichen Marktfuehrer anpassen oder?

Radeonator
2004-02-26, 09:47:33
Im "andere Graka" Forum schlägt sich die Graka ganz gut und die BQ/IQ wurde auch als Standard gewertet

Die Karte wird im Preis drastisch fallen, da , auch wenn du dies anscheinend in deinen durchaus Niveauvollen Kopf nicht reinbekommst, in Asien CrownX die Karte für 193$ anbietet (das $ und Euro von der Wertigkeit fast gleich auf liegen ist doch selbst dir klar, non?)

Nein, ich würde niemandem raten diese Karte zu kaufen und nein ich würde sie mir selbst auch nicht kaufen...ABER :

Karten die noch in "vorserie" Status , bzw sogar nur auf dem Papier vorhanden sind, in den Klee zu loben ist IMO ein absolut lächerliches 0 Argument!!!

Komisch, das in anderen Ländern die Leute anders denken...(siehe VolariForum...) vielleicht doch einfach "deutsche Kultur" die hier zu erkennen ist (Wat de boer nej kennt...)

Ailuros
2004-02-26, 12:50:13
Im "andere Graka" Forum schlägt sich die Graka ganz gut und die BQ/IQ wurde auch als Standard gewertet.

Dual bilinear approximation bei default; hier nochmal der Quote vom User der die Benchmarks postete:

ich hoffe man sieht den unterschied noch ein bisschen ... beides volari shots...
wie gesagt, bilinear und manchmal etwas wischiwaschi, aber sonst ok.

Die Karte wird im Preis drastisch fallen, da , auch wenn du dies anscheinend in deinen durchaus Niveauvollen Kopf nicht reinbekommst, in Asien CrownX die Karte für 193$ anbietet (das $ und Euro von der Wertigkeit fast gleich auf liegen ist doch selbst dir klar, non?)

Deine kleinen indirekten Stichelei-Versuche kannst Du Dir sparen. Der Euro ist um ein sattes Prozentual mehr Wert als der Dollar. Und ich hab auch nichts mit Asien zu tun.

Nein, ich würde niemandem raten diese Karte zu kaufen und nein ich würde sie mir selbst auch nicht kaufen...ABER

Noch vor ein paar Linien schlagte sie sich noch gut und sollte mit <200 euro bald erscheinen.

Karten die noch in "vorserie" Status , bzw sogar nur auf dem Papier vorhanden sind, in den Klee zu loben ist IMO ein absolut lächerliches 0 Argument!!!

Du kannst mir ja gerne zeigen wo ich ein solches Argument benutzt habe, aber dann bitte mit Link und wortwoertlichem Quote.

Mir sind die Argumente bis jetzt noch nicht ausgegangen um zu solchen stunts zu greifen. Finanzielle Analysen sind eine ganz andere Geschichte und ueber die gebe ich auch gerne weitere Erklaerungen zu meiner Meinung wenn dieses noetig sein sollte.


Komisch, das in anderen Ländern die Leute anders denken...(siehe VolariForum...) vielleicht doch einfach "deutsche Kultur" die hier zu erkennen ist (Wat de boer nej kennt...)

Ich bin ueberhaupt kein Deutscher, wenn das helfen sollte, habe auch nichts gegen jegliche sogenannte "deutsche Kultur"; eher das Gegenteil sonst waere ich auch nicht hier. Vorsicht mit dem nationalistischen Zeug ueberhaupt, da kann schnell zu unerwuenschten Missverstaendnissen kommen.

Wie lange reden wir jetzt noch um den Brei herum? Entweder Du hast standhafte Argumente gegen meine Behauptungen oder auch eventuell Beweise bzw. Dokumentation oder eben nicht. Und ich moechte schon danach bitten, dass wenn wir schon diese (na nennen wir es mal...) Debatte weiterfuehren, dann ist es mir lieber wenn wir streng beim Thema bleiben; noch besser wenn diese auf einem halbwegs ertraglichen Niveau gehalten wird. Wenn's ueberhaupt moeglich ist....

Have a nice day ;)

VooDoo7mx
2004-02-28, 11:58:24
Sag ma Radeonator, bist du es oder tust du nur so?

http://www.xbitlabs.com/images/video/xgi-volari/games/halo_1024.gif

Mit Cheats
http://www.xbitlabs.com/images/video/xgi-volari/cheats/halo_cliff_cheat.gif

Ohne Cheats
http://www.xbitlabs.com/images/video/xgi-volari/cheats/halo_cliff_normal.gif

http://www.xbitlabs.com/images/video/xgi-volari/games/scell_1024.gif

Hier wurde noch nicht optimiert:
http://www.xbitlabs.com/images/video/xgi-volari/games/rtcw_1024.gif

Ich fasse zusammen:

a)Selbst die 3. Offizielle Treiberversion ist extrem buggy und lahm.
b)Überall wo der V8 Duo einigermaßen gut abschneidet sind Cheats im Spiel die selbst die Treiberentwickler bei Nvidia ins Staunen versetzen würden.
c)Die Karte/treeiber kann nicht mehr als 2xAA allesdarüber ist nur mit Blurfilter
d)AF gibt es nicht, ist nur verändertes LOD
e) Karte verbraucht mehr Strom und hat mehr Abwärme als alles bisher dagewesene.
f) Ohne Cheats bewegt sich die Leistung der V8 Duo unter FX5200 Niveau.

Wie man bei den Halo Screenshots sind die XGI Treiberentickler wenn es um "Optimierungen" geht noch eine ganze Ecke kreativer als die kreativsten Köpfe bei ATi oder NVidia.
Vertikal wird das Bild Chipintern in einer viel niedrigeren Auflösung gerechnet und dann auf dem Bildschirm vergrößert.
Man stellt z.B. 1024x768 ein und der Chip rechnet intern was viel niedrigeres.

XGI definiert den Begriff "Treiber-Cheat" neu
Dagegen sind die kleinen Filtertricks von NV und ATi lachhaft.

Und nochwas: ich hatte weder je eine S3 Karte noch hab ich vor einen Deltachrome zu erwerben. Aber was S3 abgelieftter hat da kann man einfach nur den Hut ziehenn. Mit Vorserien Baordds und Treibern haben ie es geschafft sehr erfolgreich den Mainstream Markt anzugreifen, während es XGI mit einer ambitionierten "High End" Karte nichtmal gelungen ist den Low Cost Markt aufzumischen.

apollo
2004-02-28, 12:23:48
Ändern wir die letzte Aussage mal:
S3 mit dem DC könnte den Mainstream/LowCost-Markt erfolgreich angreifen, wenn es endlich entsprechende Karten zu kaufen geben würde...