PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : XGI volari "cheatet" bei 4xAF


mapel110
2004-01-16, 06:43:16
http://www.xbitlabs.com/articles/video/display/xgi-volari_17.html
da stets.

"Well, anisotropic filtering by Volari has nothing to do with real anisotropic filtering, but is just a simple change of the level of detail (LOD)."

/edit
wenn ichs mir recht überlege, können die anführungszeichen raus aus dem topic :)

ShadowXX
2004-01-16, 07:59:29
Hast du wirklich etwas anderes nach den ganzen anderen "Horrormeldungen" über den V8 erwartet??

Wie schon woanders erwähnt ist der V8 sehr wahrscheinlich nur ein etwas aufgebohrter Xabre....und von SIS Grafikkarten erwarte ich immer nur das schlimmste (auch wenn sie jetzt XGI heissen...).

((Das ist ein tiefes SIS-Grafikkartentrauma, ausgelöst durch die "grandisose" 630 (od. 730 (?)) GPU.....das Ding kann nicht mal 32Bit Farbtiefe auf dem Desktop, ist dabei (also in 24Bit) langsamer in der Darstellung als ein 2 Jahre ältere ATI Rage Pro bei 32 Bit.....ausserdem hat sie kein Overlay (=nicht mal ne TV-Karte funktioniert)...aber dafür HW-TnL (ha ha ha... -1 FPS)...sollte tatsächlich eine GeForec256 Konkurenz sein....))

J.S.Shadow

Sumpfmolch
2004-01-16, 11:28:06
also von den grandiosen grafikkarten wird sis auch weiterhin net wirklich leben können :schmor:

Gast
2004-01-16, 12:13:44
nicht mal das mipmapping scheint richtig zu funktionieren aber wenigstens können sie trilinear.

Gast
2004-01-16, 13:51:08
Original geschrieben von Gast
nicht mal das mipmapping scheint richtig zu funktionieren aber wenigstens können sie trilinear.

das schliesst sich gegenseitig aus:

kein vernueftiges mipmapping --> kein richtiges trilinear.

Ailuros
2004-01-16, 14:55:11
Original geschrieben von Gast
das schliesst sich gegenseitig aus:

kein vernueftiges mipmapping --> kein richtiges trilinear.

*hust*auchkeinbilinear*hust*

ShadowXX
2004-01-16, 15:00:56
Original geschrieben von Ailuros
*hust*auchkeinbilinear*hust*

Kann der Chip eigentlich überhaupt etwas??

J.S.Shadow

Ailuros
2004-01-16, 15:03:38
Original geschrieben von ShadowXX
Kann der Chip eigentlich überhaupt etwas??

J.S.Shadow

Strom verbrauchen ;D

Noch ein tolles Inquirer Exemplar:

http://www.theinquirer.net/?article=13610

Ich muss jetzt ausloggen, um mich krank zu lachen ueber den Unsinn den die Kerle da oben zusammenspekuliert haben....

:lolaway: :lolaway: :lolaway:

Tesseract
2004-01-16, 15:18:13
das ding ist einfach nur eine katastrophe ;D

Coda
2004-01-16, 15:56:15
das Ding kann nicht mal 32Bit Farbtiefe auf dem Desktop, ist dabei (also in 24Bit)
Sorry, aber das ist kein Punkt gegen XGI, auch wenn die Karten wirklich scheiße sind.
Auch in der 32 bit Auflösung werden nur 3 Bytes für jeweils R, G und B benützt, also auch effektiv 24 bit

Riptor
2004-01-16, 16:28:09
Kann mal jemand ne Liste machen, wo alles drin steht, was die Karte überhaupt richtig kann? Ich habe immer noch ein leeres Blatt vor mir... :naughty: Achja, für mich DER Grafikkartenflop 2003. Nicht mal die FX5800U kann dat toppen.

Tigerchen
2004-01-16, 18:10:51
Original geschrieben von Riptor
Kann mal jemand ne Liste machen, wo alles drin steht, was die Karte überhaupt richtig kann? Ich habe immer noch ein leeres Blatt vor mir... :naughty: Achja, für mich DER Grafikkartenflop 2003. Nicht mal die FX5800U kann dat toppen.

Wo sind eigentlich die ganzen Experten hin die schon vor dem Erscheinen der Volari gewaltig für XGI gekämpft haben? :biggrin:

DrFreaK666
2004-01-16, 18:34:48
Naja,

ich kann darüber eigentlich nicht lachen.
Ich find es nur schade, dass XGI nun doch keine Konkurrenz für ATI und Nvidia sind.
Sogar der Deltachrome soll besser sein... :-(

Ich hoffe, dass XGI genug Grakas in Taiwan und co. verkaufen bekommt um wenigstens einen besseren Nachfolger zu basteln.
Bei dem Know-How von Sis und trident sollte doch eigentlich was besseres herauskommen, oder??
Oder sind die Treiber so schlecht..??

Sumpfmolch
2004-01-16, 18:43:04
Original geschrieben von DrFreaK666
Naja,

ich kann darüber eigentlich nicht lachen.
Ich find es nur schade, dass XGI nun doch keine Konkurrenz für ATI und Nvidia sind.
Sogar der Deltachrome soll besser sein... :-(

Ich hoffe, dass XGI genug Grakas in Taiwan und co. verkaufen bekommt um wenigstens einen besseren Nachfolger zu basteln.
Bei dem Know-How von Sis und trident sollte doch eigentlich was besseres herauskommen, oder??
Oder sind die Treiber so schlecht..??

sis und trident know how im high end grafikkarten markt ? :kratz2:

Tesseract
2004-01-16, 18:46:09
Original geschrieben von DrFreaK666
Ich hoffe, dass XGI genug Grakas in Taiwan und co. verkaufen bekommt um wenigstens einen besseren Nachfolger zu basteln.

mit 300mio US-$ war das problem des volari definitiv nicht das budget, das war sogar mehr als beim R300 oder NV30

XGI fehlt es scheinbar einfach an fähigen leuten

ich hoffe das der DC ein großer erfolg wird damit ati und nV einen wirklichen konkurenten bekommen - auch im high-end bereich

ow
2004-01-16, 18:51:43
.

mapel110
2004-01-16, 19:09:44
Original geschrieben von ow
http://www.xbitlabs.com/articles/video/display/xgi-volari_23.html

Das finde ich ja noch wesentlich interessanter als das AF.

schon richtig. da braucht man sich garnicht erst über AF aufregen, wenn die default-quali nicht stimmt.

dennoch wird mit 4xAF geworben und tatsächlich nur 2xAF geboten.

btw
die auswahl an reviews auf der XGI page spiegelt auch das "who is who" der grafikkartenspezialisten wieder :D
http://www.xgitech.com/products/products_2.asp?P=1&CTID={4532B35C-9ECD-4E2E-9E06-EC86E35C55C9}

Demirug
2004-01-16, 19:14:01
Original geschrieben von ow
http://www.xbitlabs.com/articles/video/display/xgi-volari_23.html

Das finde ich ja noch wesentlich interessanter als das AF.

Das ist ja nur noch erbärmlich.

Für den nächsten Chip können sie jetzt wieder einen neuen Firmennamen suchen.

aths
2004-01-16, 20:07:01
Jeder sollte eine zweite Chance bekommen, sehr viel mehr kann man im Moment wohl nicht sagen. XGI muss das RAM-Interface optimieren, und mehr Leistung aus dem Chip kitzeln, und vor allem mit der erbärmlichen Cheaterei aufhören, die selbst Nvidias dreistesten Methoden schlägt. Wenn das der Chip ist, auf dessen Grundlage sie einen besseren entwickeln — gut. Offenbar hat sich XGI zuviel vorgenommen, gleich an die Spitze zu kommen. Immerhin haben sie es versucht, was man von S3 oder PowerVR und selbst Matrox ja nicht sagen kann.

Hier erscheint Parhelia imo plötzlich in anderem Licht — die Karte war nicht sehr schnell und hatte nicht die überragenden 3D-Features, war aber grundsolide (auch leistungsmäßig) und der Treiber cheatet den User nicht.

Ich würde XGI empfehlen, die Cheats rauszunehmen, mit Volari in den Billigmarkt zu gehen, die Dualchip-Lösung vorerst auslaufen zu lassen um sie im Labor zu perfektionieren um sich dann mit einem besseren Chip zurückzumelden.

Demirug
2004-01-16, 20:19:40
Eingentlich ist das ja schon die zweite Chance.

Und das mit dem Multichip auf AFR Basis sollten sie ganz schnell vergessen. Die Idee war schon immer schlecht, ist schlecht und wird es auch immer bleiben.

mapel110
2004-01-16, 20:48:02
Original geschrieben von aths
Ich würde XGI empfehlen, die Cheats rauszunehmen, mit Volari in den Billigmarkt zu gehen, die Dualchip-Lösung vorerst auslaufen zu lassen um sie im Labor zu perfektionieren um sich dann mit einem besseren Chip zurückzumelden.

billigmarkt? mit den anderen volari-sprösslingen?! also der "sub 60 € markt"?! die karten leisten noch nicht einmal, was eine 5200er leistet.

aths
2004-01-16, 20:48:38
Original geschrieben von Demirug
Eingentlich ist das ja schon die zweite Chance. Hießen die zu Xabre-Zeiten schon XGI?
Original geschrieben von Demirug
Und das mit dem Multichip auf AFR Basis sollten sie ganz schnell vergessen. Die Idee war schon immer schlecht, ist schlecht und wird es auch immer bleiben. SLI hat doch dann wieder andere Nachteile, oder?

Demirug
2004-01-16, 20:58:02
Original geschrieben von aths
Hießen die zu Xabre-Zeiten schon XGI?

Müssen sie sich also nur nach jedem Fehlschlag umbennen?

SLI hat doch dann wieder andere Nachteile, oder?

Auf jeden Fall. Aber bei AFR und SLI hören die Multichip Lösungen ja nicht auf. AFR ist aber nun mal die denkbar schlechteste Lösung.

VooDoo7mx
2004-01-16, 23:07:54
Das hauptnachteil beim Parhelia damals, war einfachd er zu niedrige Chiptakt!
Sogar auf 3Dcenter hier gab es einen Artikel zum Parhelia overclocken.
Bei gleicher Taktrate war/ist dieser Chip fast so schnell wie ein GF4Ti.

Zum Volari fällt mir nicht mehr viel ein, auser wie solche hohen Entwicklungskosten für einen dermaßen schlechten Chip aufkommen konnten.
Mich interessiert auch was die XGI Treiberentwickler den ganzen Tag machen.
Warscheinlich nicht den Treiber auf Performance optimieren oder mehr leistung aus der Karte zu hohlen sodnern nur einen schlechten Cheat nach den anderen einzubauen.

Riptor
2004-01-16, 23:27:12
Original geschrieben von ow
http://www.xbitlabs.com/articles/video/display/xgi-volari_23.html

Das finde ich ja noch wesentlich interessanter als das AF.

:spritz: Das ist ja mal zu hart!

Original geschrieben von Demirug
Eingentlich ist das ja schon die zweite Chance.

Eben, weil der Xabre schon der erste "Versuch" war... Aber naja, vllt wird Volari-Nachfolger besser. Oder sie erfinden wieder nen neuen Namen und machen den gleichen Mist nochmal. Schade eigentlich, aber mittlerweile kann ich nur noch drüber lachen, geht in die Richtung Galgenhumor. :sick:

Und das mit dem Multichip auf AFR Basis sollten sie ganz schnell vergessen. Die Idee war schon immer schlecht, ist schlecht und wird es auch immer bleiben.

Warum kommen dann immer wieder solche "Lösungen" raus? :naughty: Aber naja, es ist allgemein bekannt, dass der Mensch nicht aus der Vergangenheit lernt...

Riptor
2004-01-16, 23:31:26
Original geschrieben von VooDoo7mx
Das hauptnachteil beim Parhelia damals, war einfachd er zu niedrige Chiptakt!
Sogar auf 3Dcenter hier gab es einen Artikel zum Parhelia overclocken.
Bei gleicher Taktrate war/ist dieser Chip fast so schnell wie ein GF4Ti.

Naja, lag auch an den 4 Pipes... Bei 256-Bit Speicherinterfac... :bonk: Aber will da jetzt nicht länger drum rum stochern.

LovesuckZ
2004-01-16, 23:58:17
Original geschrieben von Riptor
Naja, lag auch an den 4 Pipes... Bei 256-Bit Speicherinterfac... :bonk: Aber will da jetzt nicht länger drum rum stochern.

Hm, da sind sie nicht die einzigsten *eg*

Ailuros
2004-01-17, 04:56:20
Immerhin haben sie es versucht, was man von S3 oder PowerVR und selbst Matrox ja nicht sagen kann.

Parhelia war kein mainstream design, die Entwicklung daeuerte nur fast ein halbes Jahrzehnt (ja ein bisschen uebertrieben).

SEGA Dreamcast war fuer seine Zeit ein voller high end Design; die Gruende dessen Misserfolgs waren alles andere als bodenlose Cheaterei. Und wenn Du schon PVR erwaehnen willst, dann zeig mir wenigstens einen Fall wo bei der Implementation eines jeden Features, die Qualitaet aufgeopfert wurde.

Alles in allem ist es mir persoenlich lieber, dass sich jegliche Firma das Geld erstmal spart, wenn man zu solchen Loesungen greifen sollte. Entweder ein anstaendiger Versuch oder gar keiner.

Ailuros
2004-01-17, 05:00:16
Wenn ein IHV 300M fuer Entwicklung angibt, dann sollte man genau wissen wieviel fuer den Kauf von tools davon abschlagen. Wie dem auch sei, steht diese Zahl fuer die gesamte XG4x Linie.

Wuerde NV oder ATI das Zeug auch noch anrechnen dann kaeme es zu astronomischen Summen fuer R&D.

Hat jemand die Server-raeume bei NVIDIA im damaligen Anand-Artikel verpasst?

Ailuros
2004-01-17, 05:18:22
aths,

Bessere Argumente bitte als das hier:

Hießen die zu Xabre-Zeiten schon XGI?

XabreII = Volari

Es geht hier nicht um semantics sondern um den eigentlichen Design.

Gohan
2004-01-17, 08:16:15
Original geschrieben von Riptor
Naja, lag auch an den 4 Pipes... Bei 256-Bit Speicherinterfac... :bonk: Aber will da jetzt nicht länger drum rum stochern.

4x4 wenn ich bitten darf ;) Ich hatte die Karte 7 Monate in Betrieb. 16xFAA habe ich in der Zeit kein einziges mal deaktiviert.

Demirug
2004-01-17, 08:24:38
Original geschrieben von Riptor
Warum kommen dann immer wieder solche "Lösungen" raus? :naughty: Aber naja, es ist allgemein bekannt, dass der Mensch nicht aus der Vergangenheit lernt...

Weil es einfach ist. AFR gehört in den Bereich der Dinge die man noch relative spät ins Design einbauen kann.

Quasar
2004-01-17, 10:25:24
Original geschrieben von Ailuros
Wenn ein IHV 300M fuer Entwicklung angibt, dann sollte man genau wissen wieviel fuer den Kauf von tools davon abschlagen. Wie dem auch sei, steht diese Zahl fuer die gesamte XG4x Linie.


*hrhr*
Am Ende haben sie hierzu noch die Kosten für den zukauf von Trident und anderen gerechnet. Sowie natürlich die Firmengründungskosten, Gebäudemiete während der voraussichtlichen Produktlebensdauer etc.pp. *scnr*

edit:
Gerade mal probiert:
Die alte Xabre schietet auch noch kräftig.
Aquamark.exe v2.3 640x480: 57,7
Squamurks.exe v2.3 640x480: 36,4

mapel110
2004-01-17, 12:58:24
Original geschrieben von Quasar
edit:
Gerade mal probiert:
Die alte Xabre schietet auch noch kräftig.
Aquamark.exe v2.3 640x480: 57,7
Squamurks.exe v2.3 640x480: 36,4


hm, lass mal eine 5900er mit 45er deto und dann mit 50er deto laufen ;)

LovesuckZ
2004-01-17, 13:20:36
Original geschrieben von mapel110
hm, lass mal eine 5900er mit 45er deto und dann mit 50er deto laufen ;)

Da passiert nichts...

Quasar
2004-01-17, 13:26:01
Original geschrieben von mapel110
hm, lass mal eine 5900er mit 45er deto und dann mit 50er deto laufen ;)

v2.3 war der alte Aquamark.... den neuen habe ich mich auf der Xabre gar nicht getraut, nachdem schon Halo mit lustig bunten Bildchen mir zu verstehen gab, daß die Meldung "insufficient Hardware" vor dem Start des Spiels kein übler Scherz sondern bittere Realität war.

mapel110
2004-01-17, 13:40:24
hm, okay, da hab ich mich vertan. aber bei aquanox cheaten wohl mittlerweile alle hersteller. sogar intel(HTT) ;)

Icybro
2004-01-17, 16:09:32
sis hat sich da wieder was zusammengebaut.....
war da nicht was, das die sich an den High End GraKa von ATI und NVIDIA messen wollten.....
na ja vielleicht beim nächsten (wirklich) neu designten GraKa Chip

Riptor
2004-01-17, 16:23:33
Original geschrieben von Gohan
4x4 wenn ich bitten darf ;)

Jop, 4x4... 8x2 wäre irgendwie heftiger gewesen, aber so wars eher ein stumpfer Stachel... *eg*

Exxtreme
2004-01-17, 17:55:58
Original geschrieben von ow
http://www.xbitlabs.com/articles/video/display/xgi-volari_23.html

Das finde ich ja noch wesentlich interessanter als das AF.
Aua, das tut richtig weh. Selbst bei der Auflösung bescheissen die. Ich fürchte, mit der angepeilten Marktführerschaft 2007 wird nichts.


P.S. Ich habe mir jetzt den Großteil des Artikels gegeben. XGI setzt neue Maßstäbe im Bezug auf Treibercheating und deklassiert hier die Kunkurrenz ohne Ende. *kopfschüttel*

reunion
2004-01-17, 21:00:25
Einfach nur erbärmlich...
http://www.xbitlabs.com/images/video/xgi-volari/games/scell_1024.gif

Jeder urzeitchip dürfte wohl eine höhere Leistung erreichen.
Bei 2 Chips, weit über 100W Leistungsaufnahme, 2 externe Stromanschlüsse und sauteuren DDRII Speicher eine Leistung zu liefern die jede FX5200 um längen unterlegen ist ist schon ein Ding.

Meinermeinung einfach nur Transitorenschrott!

Gast
2004-01-17, 21:11:39
hat jemand xabre benchwerte als vergleich parat ? ;D

ow
2004-01-17, 21:13:38
.

thop
2004-01-17, 21:23:36
Finde das nicht OK dass XGI hier so niedergemacht wird. Die Karte ist Scheisse, keine Frage, aber das wars dann auch schon. Mann kann nur hoffen dass die beim nächsten mal was anständiges auf den Markt bringen. Konkurrenz zu ATI/nV könnten wir alle gut gebrauchen.

Gast
2004-01-17, 21:30:28
Original geschrieben von Exxtreme
Aua, das tut richtig weh. Selbst bei der Auflösung bescheissen die. Ich fürchte, mit der angepeilten Marktführerschaft 2007 wird nichts.


:lol: Spätestens 2007 melden die Konkurs an ...

ow
2004-01-17, 21:32:56
.

thop
2004-01-17, 21:35:31
Nö die Karte nicht, aber wie hier fast schon aus Schadenfreude auf XGI eingebasht wird finde ich nicht OK. Ich denke mal beim cheating hat XGI bloß bei den Großen gelernt.

Gast
2004-01-17, 21:36:01
naja, nvidia haben immer bestimmte leute verteidigt, wieso nur ? sind doch die obercheater überhaupt :o

Demirug
2004-01-17, 21:39:20
Original geschrieben von ow
Sollen wir die Karten etwa loben?

Thema ist hier ausserdem das Cheating, welches hier wirklich in neue Dimensionen vorgestossen ist.

In welche?

Maximale Unverschämheit oder einfach nur Plumpheit?

Kein Marketingmann oder Treiberentwickler mit etwas Verstand kann doch ernsthaft erwarten das sowas lange unendeckt bleibt. Alles was sie damit erreicht haben ist das man sie jetzt noch schärfer beobachten wird.

Demirug
2004-01-17, 21:42:41
Original geschrieben von Gast
naja, nvidia haben immer bestimmte leute verteidigt, wieso nur ? sind doch die obercheater überhaupt :o

Ich glaube den Titel hat nVidia jetzt erst mal verloren.

Tesseract
2004-01-17, 21:51:41
Original geschrieben von thop
Finde das nicht OK dass XGI hier so niedergemacht wird.

und ob

schließlich bescheißen sie hier bewusst den (dafür extrem viel zahlenden)kunden

und zwar mit einer dreistigkeit die alles bisher dagewesene bei weitem in den schatten stellt

thop
2004-01-17, 21:54:46
denkst du XGI hat wirklich kunden? jetzt doch sowieso nicht mehr. da ist so ein gebashe doch überhaupt nicht nötig. das ist mal wieder 100% 3dcenter style ;)

Tesseract
2004-01-17, 22:42:51
Original geschrieben von thop
denkst du XGI hat wirklich kunden?

denkst du vielleicht sie haben keine?

es gibt genug leute die auf das marketinggelaber reinfallen

Gast
2004-01-17, 23:20:15
Original geschrieben von thop
denkst du XGI hat wirklich kunden? jetzt doch sowieso nicht mehr. da ist so ein gebashe doch überhaupt nicht nötig. das ist mal wieder 100% 3dcenter style ;)

tut mir leid...aber wer sowas ernsthaft auf den markt bringt und verkaufen will zu solchen preisen...der hat nichts anderes verdient meiner meinung nach. sowas von weltfremd ist mir schon lange nicht mehr untergekommen....

L. Trotzkij
2004-01-18, 00:15:16
Was ich nicht glauben kann ist, das die Karte trotz 90 Mill. Transistoren für einen Chip (summa summarum 180) so ne erbärmliche Leistung bietet.
Ich denke da sind die Treiber noch deutlich verbesserungswürdig.

Selbst die Xabre 600 dürfte in höchster Quali (ttex 0) deutlich mehr bei Splinter Cell liefern.

Und übrigens:
Darf man ne Firma verklagen, wenn sie nun schon zum 2.Mal
Anisotropischen Filter ankündigt und der wahrscheinlich wieder nicht aktiviert wird bzw. vorhanden ist???

aths
2004-01-18, 00:16:06
Original geschrieben von Demirug
Ich glaube den Titel hat nVidia jetzt erst mal verloren. Das glaube ich auch. Da sind bei XGI ja wirklich Dreistigkeiten bei, wo man selbst nach Nvidia-Abhärtung nur noch :bonk:

mapel110
2004-01-18, 00:21:37
Original geschrieben von L. Trotzkij
Und übrigens:
Darf man ne Firma verklagen, wenn sie nun schon zum 2.Mal
Anisotropischen Filter ankündigt und der wahrscheinlich wieder nicht aktiviert wird bzw. vorhanden ist???

2xAF scheint ja vorhanden zu sein. nur bei 4xAF wird ... siehe topic. ;)

L. Trotzkij
2004-01-18, 00:53:16
Sieht wohl eher nicht so aus.
Zitat xBit-Labs:
"No surprises here. This is true tri-linear filtering with higher level of detail at the foot of the player. No anisotropy whatsoever."

Bei 2x.

AlfredENeumann
2004-01-18, 02:04:28
Original geschrieben von thop
denkst du XGI hat wirklich kunden? jetzt doch sowieso nicht mehr. da ist so ein gebashe doch überhaupt nicht nötig. das ist mal wieder 100% 3dcenter style ;)


Seh das mal andersrum. XGI hat bisher ne menge Chips verkauft. Und zwar an die ganzen Grafikkartenhersteller. Die müssen jetzt schauen wie sie diesen Sondermüll loswerden.

Tigerchen
2004-01-18, 03:01:31
Original geschrieben von thop
Nö die Karte nicht, aber wie hier fast schon aus Schadenfreude auf XGI eingebasht wird finde ich nicht OK. Ich denke mal beim cheating hat XGI bloß bei den Großen gelernt.

Schadenfreude?
Eher Kopfschütteln darüber was XGI sich da leistet. Und daß die Firma selbst nur noch Hohn und Spott erntet hängt vielleicht irgendwie damit zusammen daß SIS "Beschleuniger" schon immer das Hinterletzte waren. Nur seit der Xabre sind sie nicht nur unfähig sondern wähnen sich auch noch als zukünftiger Marktführer.

Ailuros
2004-01-18, 05:25:06
Eine kleine Seitennotiz zu Parhelia:

4*4 ist nicht Parhelia's eigentliches Problem IMHO. Durch TMU-combining kann es mit dual-texturing single cycle trilinear erreichen. Komischerweise ist aber der ganze chip eher auf quad-texturing optimiert; da haette es mehr Sinn gemacht besagte Optimierung auf alle 4 TMUs zu erweitern.

Noch dazu kommt die Tatsache dass deren AF Algorithmus wohl nicht im geringstem Leistungs-optimiert ist. Theoretisch haette der chip ja 64-tap trilinear oder 128-tap bilinear unterstuetzen sollen, aber wenn man nicht zu irgend einer Form von Adaptivitaet greift, dann ist es klar dass es mit der Leistung nichts mehr wird. Da machte es wohl auch nicht mehr viel Sinn mehr als 2xAF im Treiber freizusetzen.

Man koennte einen ganzen Artikel schreiben, wo genau es bei Parhelia hapert, der 256bit breite Bus und der fehlende memory controller und was es fuer read efficiency z.B. bedeuten koennte, ist schon genug fuer ein ganzes Kapitel....etc etc.

Ailuros
2004-01-18, 05:36:33
Ich weiss jetzt nicht ob Inquirer mal wieder seinen eigenen Mist zusammengekratzt hat oder ob doch noch was stimmt an dem XG45 newsblurb (siehe Seite 1 dieses threads).

Weiterhin mit multi-chip Loesungen? Mal sehen PS2.0 bei etwa 80M Transistoren pro chip * 2 = ~160M Transistoren.

Angenommen PS/VS3.0 bei ~120M pro chip *2 = ~240M Transistoren....errrrr wie bitte?

Ich verstehe auch Inquirer's Ansatz auch nicht der ueber eine parallele Entwicklung von XG45 fuer 130nm und 90nm spricht. Von einem tape-out kann im Maerz 2004 ueberhaupt keine Rede sein...

Aber es ist ja Inquirer also sollte man sowieso nur darueber lachen, als es ernst zu nehmen.

BlackBirdSR
2004-01-18, 07:27:15
Original geschrieben von Ailuros

Aber es ist ja Inquirer also sollte man sowieso nur darueber lachen, als es ernst zu nehmen.

the Inquirer für Grafikkarten ist halt wie 3DCenter für CPUs :bäh:

aths
2004-01-18, 08:49:50
Habe mir gerade noch mal den x-bit Artikel zu Gemüte geführt. OMG, dass Volari Ultra Duo dermaßen schlecht performt, hätte ich nicht gedacht. Da sieht man mal, dass es gar nicht so leicht ist, Hardware zu entwickeln, die effizient arbeitet.

Ich glaube nicht, dass Leistung überwiegend eine Treiber-Frage ist, also bei gegebenen Grunddaten (z. B. 8 Pipes, 350 MHz etc.) eine bestimmte Leistung daraus "ablesbar" ist, wenn nur der Treiber stimmt. Imo gibt es überhaupt eine Art "urban legend", den Treiber betreffend. Nur weil in der Vergangenheit (und heute) die IHVs per Benchmark-Optimierung und Treiber-Cheating nachträglich noch die "Leistung" steigern, ist eine tatsächliche Leistungssteigerung (in Spielen) kaum zu beobachten.

Natürlich muss ein Treiber gut durchdacht sein, um die Hardware optimal auszunutzen. Wenn aber nun NV und ATI für spezielle, oft gebenchte Spiele im Treiber quasi "Profile" hinterlegen, verzerrt das das Bild von der tatsächlichen Leistung. Die treiberseitig völlig ausgereizten Chips stellen Volari natürlich in den Schatten. Vor allem, wenn bekannte Spiele gebencht werden. Dass der Vorsprung aber dermaßen brutal ist, hätte ich nicht gedacht.

Volari V8 Ultra Duo: 16 Pipes, 8 Pixelshader. 5600 Ultra : 4 Pipes, 2 Pixelshader. Trotzdem gleichwertig oder besser als Volari.

Imo kann man daraus zwei Dinge ablesen:

- XGI hat außerordentlich schlechte Arbeit abgeliefert. Sowohl Hardware, als auch Treiber sind Schrott.

- GeForce- und Radeon-Treiber sind für die bekannten Spiele extrem optimiert worden. In jahrelanger Arbeit haben die Treiber-Programmierer auf die bekannten Spiele hin optimiert, um sich in Vergleichtests gute Ergebnisse zu sichern.



Original geschrieben von BlackBirdSR
the Inquirer für Grafikkarten ist halt wie 3DCenter für CPUs :bäh: :nono:

Riptor
2004-01-18, 23:36:08
Original geschrieben von aths
- XGI hat außerordentlich schlechte Arbeit abgeliefert. Sowohl Hardware, als auch Treiber sind Schrott.

Aber weiß man sowas nicht schon vor dem Release? Dann kann man nen Release auch gleich bleiben lassen, denn IMO schaden die sich damit nur selbst...

mapel110
2004-01-19, 00:04:31
Original geschrieben von aths
- GeForce- und Radeon-Treiber sind für die bekannten Spiele extrem optimiert worden. In jahrelanger Arbeit haben die Treiber-Programmierer auf die bekannten Spiele hin optimiert, um sich in Vergleichtests gute Ergebnisse zu sichern.


hm, vielleicht sollte man auch dazu sagen, dass sämtliche games auf radeon oder geforcekarten entwickelt wurden.

keiner der spieledeveloper hatte eine volari zum coden/testen, geschweigedenn irgendwelche marktdurchdringenden vorgänger.

MadManniMan
2004-01-19, 01:52:15
Erst les ich amüsiert "Sie werden glauben, sie sehen doppelt!", dann lach ich mich hier im Thread echt kaputt, weil das wirklich nichts mehr mit Cheating zu tun hat sondern reiner Betrug ist (und nebenbei Q für Squamurks meinen Pulitzer des Tages für besondere Wortschöpfungen erhält) und später werd ich mich fragen, warum ich gerade im Moment Angst hätte, ein solches ... "Ding" in meinen Rechner zu setzen.

MFG von SiS zerschöss das Vieh 100pro meinen Schreibtisch.

Ich faß es einfach nicht :ratlos:

Ailuros
2004-01-19, 03:46:58
Volari V8 Ultra Duo: 16 Pipes, 8 Pixelshader. 5600 Ultra : 4 Pipes, 2 Pixelshader. Trotzdem gleichwertig oder besser als Volari.

VORSICHT!

XGi gibt folgendes an pro V8 chip:

8 "pipelines"
4 PS
2 VS

Ich hab's gerade im Speku-Forum erwaehnt; Thilo's MDolenc Resultate von ersten Volari Treiber und spezifisch die single-texturing Fuellraten deuteten eher auf einen 2*4 setup. Er hat sie ja auch hier in diesen Foren gepostet.

Xabre war auch nur 2*4 und wenn ich das jetzt mit Xabre->XabreII verbinde, dann imponiert es mir kein bisschen.

Die Frage verbleibt wie es wirklich mit der Anzahl von PS pro chip aussieht. Sonst handelt es sich um 16 texture ops (oder TMUs) beim DuoV8, wofuer aber nie genug Bandbreite zur Verfuegung stehen wird, also eher eine nutzlose Zahl.

Ich wuerde es eher auf die folgende Ebene bringen:

NV31 =

4 texture ops (4*1 oder 2*2)
2 PS

V8 (single chip) =

8 texture ops (2*4 oder 4*2)
2 PS

GeForce- und Radeon-Treiber sind für die bekannten Spiele extrem optimiert worden. In jahrelanger Arbeit haben die Treiber-Programmierer auf die bekannten Spiele hin optimiert, um sich in Vergleichtests gute Ergebnisse zu sichern.

SiS hat schon seit 1998 denselben HW-Trick mit Textur-filterung im guten Ganzen. Selbst bei bilinear handelt es sich nur um eine dual bilinear approximation. Verwaschene Texturen gab es bei jeder Karte, bei jedem Modell und es hat sich auch heute nichts geaendert.

Kann sich ein HW-bug so lange halten ueber Generationen? Ich wuerde eher sagen dass das Ganze mit Absicht immer wieder zu sehen ist; wobei es sich im Grunde nur ueber eine Design-Philosophie handelt die auf reiner Besch**sserei basiert. Nix Treiber, GeForce oder Radeon Optimierungen.

SiS hat in der Vergangenheit jedes Jahr eine neue Karte veroeffentlicht; jemand der wirklich interessiert ist sich das Ganze von Anfang an anzusehen braucht nur nach einer SiS315 als Beispiel zu suchen pffffff.....

Ailuros
2004-01-19, 03:59:59
Original geschrieben von mapel110
hm, vielleicht sollte man auch dazu sagen, dass sämtliche games auf radeon oder geforcekarten entwickelt wurden.

keiner der spieledeveloper hatte eine volari zum coden/testen, geschweigedenn irgendwelche marktdurchdringenden vorgänger.

Schoenes Argument aber ich hab ein Beispiel dass die Theorie schnell zerbricht und dazu noch mit einer fundamental verschiedenen Architektur:

KYRO2 vs GF2MX vs Radeon32DDR

In Realitaet muesste ein TBDR um einiges mehr Kompatibilitaets-probleme gehabt haben (dass dem Ding wohl T&L/cube maps fehlen weiss wohl so langsam jeder, also denke ich nur an die Spiele in 2001), oder?

mapel110
2004-01-19, 04:19:53
kyro2 war ja auch nur ein hochgetakteter kyro1 chip. ergo selber treiber==verdammt viel zeit für treiberentwicklung.

will nicht wissen, wie die ersten kyro1 treiber waren.

aths
2004-01-19, 04:54:48
Original geschrieben von Riptor
Aber weiß man sowas nicht schon vor dem Release? Dann kann man nen Release auch gleich bleiben lassen, denn IMO schaden die sich damit nur selbst... Kein Release, kein Verkauf. Wenn ich Projektmanager wäre, und meine Leute entwickeln ein nicht so gutes Produkt, würde ich es auch releasen, schon, um mit Hardware präsent zu sein. Viele "Reviewer" gucken leider nur auf den 3DMark, wo sich XGI einen beachtlichen Punktestand zusammencheatet (hier cheaten oder cheateten bekanntlich auch ATI und Nvidia.) Solche "DAU-Medien" sind wohl leider die größten Meinungsmultiplikatoren.


Original geschrieben von MadManniMan
Erst les ich amüsiert "Sie werden glauben, sie sehen doppelt!", dann lach ich mich hier im Thread echt kaputt, weil das wirklich nichts mehr mit Cheating zu tun hat sondern reiner Betrug ist Eben das ist ja Cheating: Betrug.


Original geschrieben von Ailuros
SiS hat schon seit 1998 denselben HW-Trick mit Textur-filterung im guten Ganzen. Selbst bei bilinear handelt es sich nur um eine dual bilinear approximation. Verwaschene Texturen gab es bei jeder Karte, bei jedem Modell und es hat sich auch heute nichts geaendert.Was meinst du mit "dual bilinear approximation"? (Screenshots? Artikel/Posting mit Erklärung?)

MadManniMan
2004-01-19, 05:30:13
Original geschrieben von aths
Eben das ist ja Cheating: Betrug.

Da sieht man mal, wie man durch nV und ATi mit dieser Begrifflichkeit überreizt wurde :(
Ein Cheat und ein Betrug auf einer Ebene... Im weitesten Sinne: nu klar! Aber direkt auf meine Aussage bezogen ist der Cheat von SiS dutzendmal - pardon - abgefuckter, als jeder Betrug von ATi oder nV.

BTW @AiL: ah, langsam komm ich der Pipe-Sache näher. Wobei ich irgendwie noch nirgends was von 2.4MTexel beim besch... AFR-Doppelguck0r gesehen hab. Kann man eigentlich "Rawpower" im DX7-Bezug ineffektiv implementieren? :grübel:

Ailuros
2004-01-19, 06:21:38
Original geschrieben von mapel110
kyro2 war ja auch nur ein hochgetakteter kyro1 chip. ergo selber treiber==verdammt viel zeit für treiberentwicklung.

will nicht wissen, wie die ersten kyro1 treiber waren.

KYRO1/2001:

http://www.3dcenter.de/artikel/kyro/


Xabre600 (hoeher getaktete Xabre400)/2003:

http://www.mitrax.de/review.php?id=11

-----------------------------------------------

aths

Es ist schon das zweite Mal dass ich Dich auf den gleichen Artikel hinweise:

http://www.xbitlabs.com/articles/video/display/xabre400_2.html

Bitte diesmal durchlesen.

aths
2004-01-19, 10:21:37
Original geschrieben von Ailuros
aths

Es ist schon das zweite Mal dass ich Dich auf den gleichen Artikel hinweise:

http://www.xbitlabs.com/articles/video/display/xabre400_2.html

Bitte diesmal durchlesen. Komische Artefakte. Müsste man mal in Bewegung sehen. Letztlich wird schon bilinear gefiltert, aber mit falschem LOD. Die springen mitten in der MIP ein mal zu einer zu großen und ein mal zu einer zu kleinen MIP.

edit: Oder doch nicht. Den eingefärbten MIPs nach kommen die Texel schon aus der gleichen MIP. Komisch.

Ailuros
2004-01-19, 15:45:47
Von einem gewissen MIP level und hoeher werden zwei pixels in einer Reihe mit der gleichen Farbe gezogen.

Uebrigens nochmal zurueck zu den coloured MIPmap shots im Volari xbit Artikel; hat jemand die MIP levels schon gezaehlt? Es sind weniger wie auf konkurrierenden Loesungen.

FatalError
2004-01-19, 17:49:36
Original geschrieben von mapel110
2xAF scheint ja vorhanden zu sein. nur bei 4xAF wird ... siehe topic. ;)

Da wird mir langsam klar warum XGI im Interview mit Prohardver! http://prohardver.hu/rios3_content.php?mod=20&id=265 auf diese Frage so geantwortet haben... :D

PH!: we have done several detailed image quality testings with GeForce FX and high-end Radeon cards in regards to FSAA and anisotropic filtering. In the end, ATI's true multi-sampling 6X FSAA was clearly the winner, but anisotropic filtering was also dominated by ATI. Please describe Volari's FSAA and AF techniques and options. Is Volari using pure multi-sampling, or mixed multi- and super-samping FSAA?

XGI: ...

mfg
FatalError

VooDoo7mx
2004-01-19, 19:07:35
ACHTUNG!

Heute abend bei Giga Help 21.00-21.45 :

XGI Volari V8Duo Ultra

Ihr könnt euch schon ja schon mal bei Giga den "Artikel" durchlesen...
Einfach nur lolig ;D ;D ;D
Die Typen die dort sitzen ahben wirklich absolut keien Ahnung von ihren Handwerk, oder?

FatalError
2004-01-19, 19:32:39
"Leider hakelt es noch beim Anti-Ailising und beim anisotropischem Filtering. Maximal sind 4x AA möglich und AF. Hier muss man seitens XGi noch einige Verbesserungen vornehmen. Die Treiber sind noch nicht ganz ausgereift und dies wird auch in einigen Benchmarks klar. So wurden in Aquanox alle Texturen stark verwischt und in anderen Spielen traten Texturfehler auf. Zudem war die Leistung für eine High End Karte nicht ausreichend. Vielmehr musste sich die Volari mit einer FX 5900 herumschlagen statt mit den Flagschiffen der Konkurrenz."

Giga halt. :D
mfg
FatalError