PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : XGI Volari Duo


Seiten : 1 [2]

Ailuros
2003-09-23, 02:50:49
500$ ? Das ergibt wohl mindestens einen 600€ Anfangspreis fuer DuoV8. Ich denke ich frag mal Paul Wu ob er noch genaueres darueber hat.

stickedy
2003-09-23, 03:11:19
600 Euro ist schon ein Wort. Das ist ja viel mehr als eine Radeon 9800 Pro oder eine GeForce FX 5900 Ultra aktuell kosten, von den Preisen dieser Karten nach Erschienen der R360 oder NV38-Karten mal ganz zu schweigen.

Ich weiß ja nicht, aber ich denke mal, dass XGI einigermaßen realistisch ist, wenn es um die Einschätzung geht, was man für die Karten/Chips verlangen sollte bzw. verlangen kann. SiS war da zumindest bis jetzt realistisch...

Wenn die jetzt als Neuling bzw. alter Bekannter mit schlechtem Image mehr Geld für weniger Leistung verlangen wollten, dann wäre das ganze Volari-Projekt imho schon im Ansatz gescheitert.

Kann es sein, dass deine Quellen doch nicht so gut informiert sind? Dieser hohe Preis macht sonst absolut keinen Sinn!

Ailuros
2003-09-23, 03:23:58
Kann es sein, dass deine Quellen doch nicht so gut informiert sind? Dieser hohe Preis macht sonst absolut keinen Sinn!

Die Preis-marge soll zwischen US$ 99 und 499 liegen, wobei der letztere wohl selbstverstaendlich fuer duo V8 ist.

Ob jetzt die Quelle falsch lag oder nicht wird sich schon herausstellen in kurzer Zeit. Was den Preis betrifft (und dabei ist es mir genauso egal ob ich von den NV-fans jetzt zu Tode geflamed werde) 5900Ultras sind billiger als 9800PROs? Oder ich bin ganz einfach verrueckt und sehe die letzteren hier in meiner Ecke nicht nur billiger aber auch ein weit besseres Preis/Leistungs-Verhaeltnis zu haben.

Multichip boards sind teuer herzustellen und kein IHV wuerde sie mit einem Verlust verkaufen; ob die Dinger wirklich ihr Geld wert sind werden wir wohl schon sehen. Obwohl ich vor Jahren eine Bevorzugung fuer 3dfx hatte, sass bei mir ne GTS im System und ich fand dass man absolut verrueckt sein muesste um 600$ fuer ne V5 6k hinblechen zu wollen, ohne genaue Leistungsnummern vor mir zu haben....

stickedy
2003-09-23, 03:39:40
Naja, laß es mich so sagen: XGI würde nich besonders viel V8 Duo - ich möchte sogar behaupten die Zahl würde stark gegen Null gehen - verkaufen, wenn die Leistung schlechter als die einer billigeren ATI oder NVidia-Karte wäre.
Ich denke, dass ist jedem klar, und vermutlich auch XGI.

Also was würde es bringen, wenn man eine Karte dann zwar rentabel mit einem hohen Preis verkaufen könnte/würde, aber dafür eben keine Kunden dafür hat? V8 Duo wäre kompletter Nonsense

BlueRaven
2003-09-23, 03:47:47
512MB Speicher soll ja druf kommen, es krass ;-)




MFG
BlueRaven

Ailuros
2003-09-23, 04:39:12
Original geschrieben von BlueRaven
512MB Speicher soll ja druf kommen, es krass ;-)




MFG
BlueRaven

Duo V8 unterstuetzt bis zu 256 pro chip (256*2=512), was aber nicht heisst dass es eine solche Version auch unbedingt geben wird. 2*128=256 sind mehr als genug fuer die Karte.

Ailuros
2003-09-23, 04:47:22
Original geschrieben von stickedy
Naja, laß es mich so sagen: XGI würde nich besonders viel V8 Duo - ich möchte sogar behaupten die Zahl würde stark gegen Null gehen - verkaufen, wenn die Leistung schlechter als die einer billigeren ATI oder NVidia-Karte wäre.
Ich denke, dass ist jedem klar, und vermutlich auch XGI.

Also was würde es bringen, wenn man eine Karte dann zwar rentabel mit einem hohen Preis verkaufen könnte/würde, aber dafür eben keine Kunden dafür hat? V8 Duo wäre kompletter Nonsense

Verkaufen werden sie schon eine Anzahl von denen, selbst wenn die Leistung relativ auf gleichem Niveau (im Durchschnitt) auf einer billigeren R350 z.B. sein wird. Es ist ja auch nicht so dass in solchen Faellen IHVs teure boards im absoluten Ueberfluss bauen werden.

Das eigentliche Ziel muesste ja sein dass es auch wirklich um 200€ schneller sein sollte und danach sieht es selbst mit den Hauseigenen 3dmark Resultaten nicht danach aus.

Gast
2003-09-23, 07:50:00
Original geschrieben von stickedy
Naja, laß es mich so sagen: XGI würde nich besonders viel V8 Duo - ich möchte sogar behaupten die Zahl würde stark gegen Null gehen - verkaufen, wenn die Leistung schlechter als die einer billigeren ATI oder NVidia-Karte wäre.
Ich denke, dass ist jedem klar, und vermutlich auch XGI.


Das denke ich nicht. Selbst wenn XGI keine einzige V8-Duo verkauft weil das Preis-Leistungsverhältnis schlechter ist als bei ATi/Nvidia lohnt sich die verhältnismäßig geringe Investition in ein 2Chip-Board, da sie dann wenigstens bei den Reviews gut dastehen. "Mindshare" heißt sowas auf Englisch. Und ich denke XGI kommt es bei den Duo-Boards mehr aufs Marketing an und nicht so sehr auf die Anzahl der tatsächlich verkauften Chips/Boards.

Ailuros
2003-09-23, 08:09:54
http://www.tweaktown.com/document.php?dType=article&dId=528&dPage=2

http://images.tweaktown.com/imagebank/computex03_day1_08.jpg

Duo V8:

5370 (+61%)

GT1 = 154.1 (+26%)
GT2 = 47.3 (+125%)
GT3 = 36.3 (+88%)
GT4 = 20.4 (+4%)

(Prozente in Relation zu RV350)

9600PRO:

3334

GT1 = 122.2
GT2 = 21.0
GT3 = 19.3
GT4 = 19.6

9800PRO:

5364

GT1 = 164.9
GT2 = 36.3
GT3 = 32.8
GT4 = 33.0

Nach erstem Blick ist die advanced Shader Leistung nicht besser als auf einer RV350, wobei starke stencil Leistung zum Vorschein in GT2 und 3 vorkommt. Eine 5900Ultra kommt leicht auf die 43.6 fps in GT2. Kongratulierung zu den Zixel pipelines. Leider haben wir noch keine Fuellraten...

Ailuros
2003-09-23, 08:11:01
Original geschrieben von Gast
Das denke ich nicht. Selbst wenn XGI keine einzige V8-Duo verkauft weil das Preis-Leistungsverhältnis schlechter ist als bei ATi/Nvidia lohnt sich die verhältnismäßig geringe Investition in ein 2Chip-Board, da sie dann wenigstens bei den Reviews gut dastehen. "Mindshare" heißt sowas auf Englisch. Und ich denke XGI kommt es bei den Duo-Boards mehr aufs Marketing an und nicht so sehr auf die Anzahl der tatsächlich verkauften Chips/Boards.

Da stimm ich zu. Mindshare ist ungeheuer wichtig im 3D Markt.

Radeonator
2003-09-23, 08:31:44
Also ma just 4 fun einen no seller zu basteln, kann sich keine Firma leisten. Die Preise bleiben abzuwarten. SiS hat seinerzeit eigentlich auch die Preise für ihre GPU´s genannt (waren Sie wohl besonders stolz druff ;) )

Wenn XGI mit 499 in den Markt drängen wollen, ist der Erfolg mehr als fraglich, ausser es handelt sich dabei um die 512MB Karte(2x256)

Gast
2003-09-23, 08:33:50
Original geschrieben von Ailuros
GT4 = 20.4 (+4%)
(Prozente in Relation zu RV350)

9600PRO:

GT4 = 19.6


Wow, die Karte könnte also in HL2 jede GF-FX 5900-Ultra platt machen. Das wäre wirklich nett für Nvidia. ;D

LovesuckZ
2003-09-23, 08:36:01
Original geschrieben von Gast
Wow, die Karte könnte also in HL2 jede GF-FX 5900-Ultra platt machen. Das wäre wirklich nett für Nvidia. ;D

???

Die Leistung im GT4 entspricht dem der 5900U mit der 330 Version und Deto 44.03...

Gast
2003-09-23, 14:40:21
Original geschrieben von stickedy
Wesentlich interessanter finde ich, dass XGI schon min. 2 Partner hat: Und zwar PowerColor und Gigabyte!

Wobei PowerColor nach eigenem Bekunden der größte Hersteller von ATI-Grafikkarten ist und sich mit Gigabyte ja immerhin ein namhafter Hersteller gefunden hat. DAS verwundert mich wirklich. Was kann XGI bieten, was ATI nicht bietet?

Vielleicht haben Powercolor une Gigabyte gesehen, dass die Volari gut und schon ist?
Vielleicht is die Preis mehr interessant?
Vielleicht ist Ailuros falsch?

Crushinator
2003-09-23, 15:13:49
^^ Nein, beide haben Angst vor ASUS, welche demnächst auch mit ATi-Chips antreten. ;)

Ailuros
2003-09-23, 19:16:31
Original geschrieben von Gast
Vielleicht haben Powercolor une Gigabyte gesehen, dass die Volari gut und schon ist?
Vielleicht is die Preis mehr interessant?
Vielleicht ist Ailuros falsch?

Powercolor als Beispiel hat schon immer mehrere IHVs ausser NVIDIA und ATI unterstuetzt. Um genau zu sein haben sie in den letzten Jahren nicht einen einzigen SiS chip verpasst.

Komischerweise ist deren Ansehen als Vendor erst um einiges nach der R300 gestiegen.

Ailuros
2003-09-23, 19:22:43
Wenn XGI mit 499 in den Markt drängen wollen, ist der Erfolg mehr als fraglich, ausser es handelt sich dabei um die 512MB Karte(2x256)

Wie dem auch sei muss duoV8 mit diesem Preis im Idealfall gegen die NV38/R360 antreten; im schlimmsten Fall wenn die multichip Versionen doch etwas spaeter kommen ist deren Lebenszeit durch die zukuenftigen R420/NV40 noch mehr gefaerdet (~Q1 2004).

Nichts gegen einen Versuch den high end Markt anzupeilen, ganz im Gegenteil, aber der spezifische Versuch sieht trotz bestem Willem viel zu kurzsichtig aus.

Ailuros
2003-09-23, 19:24:32
Original geschrieben von LovesuckZ
???

Die Leistung im GT4 entspricht dem der 5900U mit der 330 Version und Deto 44.03...

Kann aber auch sein dass selbst bei Volari ein bisschen Shader-reordering helfen koennte, obwohl sie dafuer schon fast ein Jahr Zeit hatten.

Al-CAlifAX
2003-09-23, 19:39:47
Original geschrieben von Ailuros
Kann aber auch sein dass selbst bei Volari ein bisschen Shader-reordering helfen koennte, obwohl sie dafuer schon fast ein Jahr Zeit hatten.

könnte das der 2.0B sein von dem Demirug sprach?

Radeonator
2003-09-23, 20:20:05
Also im Gegensatz zur desaströsen Shader Leistung der Xabre (konnte man nur durch Tricks umgehen... ) aber eigentlich ganz ordentlich. Nur bleibt immer noch die Frage : Welche IQ, welche Einstellung wurde genutzt .

Wie ich schon vorher mal erwähnt habe, wenn Sie wieder so lange wie bei der Xabre brauchen, kommt die Karte viel zu spät :(

Aber es heisst ja, das Sie viel früher kommt, als erwartet. Mal schaun :)

Wir brauchen einfach viel mehr Daten über die GPU, vor allen wie die Pipes aufgebaut sind würde mich da interessieren und wie das Speicher management ausschaut.

Ailuros
2003-09-23, 20:28:39
Wir brauchen einfach viel mehr Daten über die GPU, vor allen wie die Pipes aufgebaut sind würde mich da interessieren und wie das Speicher management ausschaut.

Ich wuerde sagen dass sich nach den einzelnen Tests nichts an der 8*2 Theorie fuer duoV8 geaendert hat. 2 Z/stencil units pro pipe (ergo die 16 zixel pipes).

Uebrigens koennte dieser config leicht in Bandbreiten Probleme rennen mit der zweiten TMU bei zu hohem random texture access.

Radeonator
2003-09-23, 21:43:26
Dazu müsste man wissen wie die 2GPUs wirklich miteinander arbeiten, ich denke wenn jetzt auch noch die Treiber ausgereifter werden (bis november ist ja noch ein bissi ;) ) wird auch noch mehr Performance kommen. Lediglich die IQ könnte da noch einen dicken Strich durch die Rechnung machen...

Alles zu wage und eher Spekulation momentan.

Phantom04@3DC
2003-09-24, 01:28:53
das sind doch net fertige chips oder... die machen ja verdammt schnelle fortschritte.

http://www.s-koukpari.de/phantom/Volaris.jpg




MFG
Phantom04

Radeonator
2003-09-24, 10:02:39
Es handelt sich hierbei um BETA silicium und wenn man bedenkt das erst im November alles Final wird...

Radeonator
2003-09-24, 10:28:54
Immer mehr wollen die Volari´s
xbitlabs (http://www.xbitlabs.com/news/video/display/20030923124528.html)

As we managed to find out, ASUSTeK Computer, ABIT, Gigabyte Technology, CP Technology and Club3D plan to support XGI in an attempt to successfully enter the graphics cards market this year by adoption of

StefanV
2003-09-24, 10:36:40
Original geschrieben von Radeonator
Immer mehr wollen die Volari´s
xbitlabs (http://www.xbitlabs.com/news/video/display/20030923124528.html)

As we managed to find out, ASUSTeK Computer, ABIT, Gigabyte Technology, CP Technology and Club3D plan to support XGI in an attempt to successfully enter the graphics cards market this year by adoption of

Ich sehe hier 4 Unternehmungen...

Na, welcher wurde doppelt gemoppelt?? *eg*

Gast
2003-09-24, 10:36:46
Original geschrieben von Radeonator
Immer mehr wollen die Volari´s
xbitlabs (http://www.xbitlabs.com/news/video/display/20030923124528.html)

As we managed to find out, ASUSTeK Computer, ABIT, Gigabyte Technology, CP Technology and Club3D plan to support XGI in an attempt to successfully enter the graphics cards market this year by adoption of

ist doch top...
da bin ich echt mal gespannt...

egdusp
2003-09-24, 11:17:11
Original geschrieben von Stefan Payne
Ich sehe hier 4 Unternehmungen...

Na, welcher wurde doppelt gemoppelt?? *eg*

CP Technology and Club3D tippe ich mal.

mfg
egdusp

DrumDub
2003-09-24, 11:27:22
Original geschrieben von egdusp
CP Technology and Club3D tippe ich mal.

mfg
egdusp

cp technology ist powercolor.

Radeonator
2003-09-24, 11:32:16
Es sind sogar noch mehr, da auch ein paar asiatische Hersteller am Start sind. Es geht auch nicht um Quantität, sondern Qualität...die ist wohl mit Asus und Gigabyte mehr als gedeckt!!!

Ice-Kraem
2003-09-24, 11:35:23
davon kann man ausgehen, das asus keinen shice chip verbauen will....

stickedy
2003-09-24, 13:17:36
Der war gut!

Asus hat schon damals zu seeligen Socket7-Zeiten SiS-Chipsätze verbaut und die waren wirklich alles andere als auch nur annähernd gut! Asus verbaut alles so lange es billig ist und man viel Geld dafür verlangen kann, ob das Grafikkarten oder Mainboards sind, ist egal...

StefanV
2003-09-24, 13:28:29
Original geschrieben von DrumDub
cp technology ist powercolor.
Jop und Club3D gehört dazu.

Meine Club3D Radeon 9600 find ich auch auf der CP Technology Website ;)

Gast
2003-09-24, 13:28:35
In dem Review auf Mitrax sieht man deutlich wie unbrauchbar und schlecht das gelogene 4xFSAA auf der Xabre ist, grottig!!!

Das Geforce2 hat auch schlecte FSAA...

stickedy
2003-09-24, 13:37:11
In gut 3 Wochen soll es Testsamples von den Volari-Karten geben, dann wissen wir mehr: http://www.pcwelt.de/news/hardware/34133/2.html

Radeonator
2003-09-24, 14:07:44
Original geschrieben von stickedy
Der war gut!

Asus hat schon damals zu seeligen Socket7-Zeiten SiS-Chipsätze verbaut und die waren wirklich alles andere als auch nur annähernd gut! Asus verbaut alles so lange es billig ist und man viel Geld dafür verlangen kann, ob das Grafikkarten oder Mainboards sind, ist egal...

Die Zeiten ändern sich...überleg mal wie lange Socket 7 her ist, du willst doch nicht im Ernst Rückschlüsse auf diese alten Motenkisten ziehen ? Desweiteren steht Asus inzwischen für sehr hohe Qualitäts Ansprüche.Zur Socket 7 Zeit waren fast alle (ausser intel ;) ) Boards nicht gerade berauschend ...

Gohan
2003-09-24, 15:11:02
Nurmal wieder um auf die Karte zurück zu kommen:

http://www.hardware-tweaker.de/HTML/Home_4/volari02.jpg

r@w
2003-09-24, 15:13:51
Brutal !
:D

Und gleich 2x Stromversorgung ?
Hmmm...

Razor

ShadowXX
2003-09-24, 15:35:47
Original geschrieben von Gast
Das Geforce2 hat auch schlecte FSAA...

Und wie alt ist die Geforce2 ??

Und ausserdem glaube ich auch nicht das jemand behauptet das das AA der GF2 gut ist.....(bei heutigen verhältnissen).

@r@w

sind doch auch zwei Chips;D

Aber im Ernst...was schlucken die zusammen??

J.S.Shadow

r@w
2003-09-24, 15:37:49
Original geschrieben von ShadowXX
sind doch auch zwei Chips;D

Aber im Ernst...was schlucken die zusammen??
Das würd' mich auch mal intressieren...
Aber viel mehr noch, was genau das bringen soll !
Oder muss man etwa dafür sorgen, dass die Anschlüsse von 2 verschiedenen Strängen kommen ?
Oder gar von 2 verschiedenen Netzteilen ?
:kratz:

Razor

mayo
2003-09-24, 15:40:45
Original geschrieben von r@w
Das würd' mich auch mal intressieren...
Aber viel mehr noch, was genau das bringen soll !
Oder muss man etwa dafür sorgen, dass die Anschlüsse von 2 verschiedenen Strängen kommen ?
Oder gar von 2 verschiedenen Netzteilen ?
:kratz:

Razor

Vielleicht (hoffentlich) ist das ganze ein Marketing-Gag. Nach dem Motto: zwei Anschlüsse = mehr Power = mehr Geschwindigkeit.

DrumDub
2003-09-24, 16:25:04
Original geschrieben von Stefan Payne
Jop und Club3D gehört dazu.

Meine Club3D Radeon 9600 find ich auch auf der CP Technology Website ;)

hehe. also beide richtig. ;D

aber wiseo haben die zwei brands mit powercolor und club3d ???

stickedy
2003-09-24, 16:43:24
Original geschrieben von mayo
Vielleicht (hoffentlich) ist das ganze ein Marketing-Gag. Nach dem Motto: zwei Anschlüsse = mehr Power = mehr Geschwindigkeit.

Evtl. liegt das daran, dass es ne Prototyp-Karte für Testzwecke ist und man kann so die Stromaufnahme etc. für beide Chips getrennt messen. Zumindest wär das ne Idee. Ansonsten macht das imho echt verdammt wenig Sinn und ich glaube nicht, dass die Serienkarten das auch so haben...

Seraphim
2003-09-24, 17:32:22
Original geschrieben von Radeonator
Desweiteren steht Asus inzwischen für sehr hohe Qualitäts Ansprüche.Zur Socket 7 Zeit waren fast alle (ausser intel ;) ) Boards nicht gerade berauschend ... asus ist in erster linie beim preis und beim besch...eidenen support spitze.

BavariaBlade
2003-09-25, 15:57:40
Original geschrieben von stickedy
Evtl. liegt das daran, dass es ne Prototyp-Karte für Testzwecke ist und man kann so die Stromaufnahme etc. für beide Chips getrennt messen. Zumindest wär das ne Idee. Ansonsten macht das imho echt verdammt wenig Sinn und ich glaube nicht, dass die Serienkarten das auch so haben...

*zustimm*

Ich finde die Karte im übrigen recht klein. Un all zu viel Verlustleistung werden die nicht haben wenn man die Kühlkörper betrachtet.

servus

StefanV
2003-09-25, 16:02:53
Original geschrieben von BavariaBlade
*zustimm*

Ich finde die Karte im übrigen recht klein. Un all zu viel Verlustleistung werden die nicht haben wenn man die Kühlkörper betrachtet.

servus

Nujo, diese Kühler scheinen für 'ne GF FX und 'ne Radeon 9800 groß genug zu sein, also von daher...

Dunkeltier
2003-09-26, 23:42:12
Interessant:
Volari Duo V8 ultra - 5600+ 3D Marks
Volari Duo V5 Ultra - 4000+ 3D Marks

Volari V8 Series - 3000+ 3D Marks
Volari V5 Series - 2000+ 3D Marks
Volari V3 Series - 1000+ 3D Marks

betasilie
2003-09-26, 23:46:37
Ich bin mal gespannt wie hoch man den Volari-Duo-V8-ultra OCen kann mit Voltmod un WaKü. :naughty:

SKYNET
2003-09-30, 07:51:47
Original geschrieben von Gohan
Nurmal wieder um auf die Karte zurück zu kommen:

http://www.hardware-tweaker.de/HTML/Home_4/volari02.jpg

*wuahahaha*

da habe ich ja bald nen neues schönes spielzeug um den ungläubigen mal wieder ordentlich einzuheizen :D

mal sehn was das baby mit A64 kann :D dürfte nen ziemlicher turbolader bei 3Dmurks 2001 sein das schätzle :cool:

BavariaBlade
2003-09-30, 20:30:22
@ SKYNET

Wie wärs wenn Du mal etwas an Deiner Ausdrucksweise arbeiten würdest. Deine Komentare sind zu provakativ, und hier mit sicherheit nicht erwünscht, da knnst Du noch so viele Smilies setzen.

kmf
2003-09-30, 20:47:52
Original geschrieben von betareverse
Ich bin mal gespannt wie hoch man den Volari-Duo-V8-ultra OCen kann mit Voltmod un WaKü. :naughty:

Überhaupt nicht, die läuft schon am Anschlag. ;D


Nee, Spaß beiseite, ich hab so ein Prachtstück denen gar nicht zugetraut.

Da brauch ich kein Prophet zu sein: Schon bald werden wir hier im Helpforum unter nVidia Grafikkarten ein neues Forum "XGI Grafikkarten" finden. Die verschwindet nicht im Abteil "Sonstige Grafikkarten".

Wetten? :D

/edit

Mit dem 2-Finger-Suchsystem klappt das heute mal wieder nicht. Fehler korrigiert.

Radeonator
2003-09-30, 21:22:54
Ausser wenn die pessimisten recht behalten...

Aber ich hoffe nur das Beste!!! Die BQ soll laut einiger Website gut gewesen sein!

Ist euch aufgefallen das im Details von3dMurks max 4xAF steht ???

Ailuros
2003-10-01, 05:21:40
Original geschrieben von Radeonator
Ausser wenn die pessimisten recht behalten...

Aber ich hoffe nur das Beste!!! Die BQ soll laut einiger Website gut gewesen sein!

Ist euch aufgefallen das im Details von3dMurks max 4xAF steht ???

Dass die XG4x nur ueber 4xAF faehig sind, war Anteil meines "fruehen Pessimismus". Gutes 4xAF ist akzeptabel; es muss nur Leistungs-optimiert sein um konkurrieren zu koennen, ergo in irgendeiner Art adaptiv sein.

stickedy
2003-10-01, 17:48:31
Damals als die ersten 3DMark2001-Durchläufe mit dem Xabre400 zu bestaunen waren, hieß es auch, dass die Grafik in Ordnung wäre. Erst später hat man das Turbo-Tex-Zeug entdeckt.
Das bloße Ansehen eines 3DMark-Durchlaufes reicht nicht für eine definitive Aussage, ob die Grafikqulität OK ist, v.a. nicht wenn man keinen unmittelbaren Vergleich hat...

Ailuros
2003-10-02, 02:20:10
Hier muss ich aber trotzdem zugeben dass SiS und heute XGi nicht so schlecht mit dem Marketing/PR Zeug umgeht, denn 3dmark Nummern lozen Interesse an.

Trotz fehlender Funktionalitaeten gab Xabre gute scores in 2001 ab, dank der Pixel Shader. Bei Volari ist ein guter Anteil der 2003 Leistung an der Stencil-Leistung zu verdanken die ja auch gut zu Nutzen in Spielen mit dynamischen Schatten kommen kann.

Natuerlich muss der Rest dann auch noch stimmen, aber dafuer muessen wir doch noch abwarten.

SKYNET
2003-10-02, 23:03:17
ich würde es ja extem geil finden wenn die karte im normal modus soschnell ist und dann noch den berühmten xabre "turbo" hat :D mal schnell innen turbo schalten und über viele punkte mehr freuen :D

LovesuckZ
2003-10-02, 23:12:01
Original geschrieben von Ailuros
Dass die XG4x nur ueber 4xAF faehig sind, war Anteil meines "fruehen Pessimismus". Gutes 4xAF ist akzeptabel; es muss nur Leistungs-optimiert sein um konkurrieren zu koennen, ergo in irgendeiner Art adaptiv sein.

aehm, echt?
Hm, also müsste man sich nen delta chrome und ne XGI Colari karte kaufen, wenn man AA/AF auf Konkurenzfaehigen Niveau haben moechte...

LOCHFRASS
2003-10-02, 23:17:38
Original geschrieben von SKYNET
ich würde es ja extem geil finden wenn die karte im normal modus soschnell ist und dann noch den berühmten xabre "turbo" hat :D mal schnell innen turbo schalten und über viele punkte mehr freuen :D

Cheater! http://people.freenet.de/lochfrass/ugly_vs_skynet.gif

Ailuros
2003-10-03, 01:41:37
Original geschrieben von LovesuckZ
aehm, echt?
Hm, also müsste man sich nen delta chrome und ne XGI Colari karte kaufen, wenn man AA/AF auf Konkurenzfaehigen Niveau haben moechte...

So meinte ich es nicht. Ich meinte dass non-adaptives Aniso unvermeidlich langsam sein wuerde auf jeder Karte, und daher muss es auf irgendeine Art Leistungs-optimiert sein.

ATI hat die Winkel-abhaengigkeit bei 22 und 67 Grad, und NVIDIA eine Art "table-selection" im Algorithmus wo nicht alle Texturen in allen Faellen 64-tap bekommen, selbst wenn es so im Treiber aufgefordert wird.

http://www.digit-life.com/articles2/behind-intellisample/index.html

SKYNET
2003-10-03, 02:08:12
Original geschrieben von LOCHFRASS
Cheater! http://people.freenet.de/lochfrass/ugly_vs_skynet.gif

nana, nix gecheatet ;) nur von hausaus im treiber integrierte "oiptimierungen" aktivieren ;) :P

LovesuckZ
2003-10-03, 19:22:32
Neue Informationen bei elitebastards:
Schade ist, dass es nur max 4AF und 4xSSAA gibt. Somit sich die Karte nur schwer gegenüber der Konkurenz durchsetzen werde :(

http://www.elitebastards.com/dw/xgispecs.png (http://www.elitebastards.com/)

Tesseract
2003-10-03, 21:01:17
das 4xSS is definitiv nicht konkurrenzfähig, auch bei so einer gewaltigen füllrate nicht

4xAF kommt auch nicht an die konkurrenz ran, aber wenn es wunderschön und schnell is wäre das zu verkraften (imho)

mapel110
2003-10-03, 23:29:50
Original geschrieben von Tesseract
das 4xSS is definitiv nicht konkurrenzfähig, auch bei so einer gewaltigen füllrate nicht

4xAF kommt auch nicht an die konkurrenz ran, aber wenn es wunderschön und schnell is wäre das zu verkraften (imho)

mittlerweile kommen ja auch spiele raus, wo man nicht mehr genug performance für AA hat, von daher ists vielleicht ein nicht sooooooo grosse nachteil. bleibt zu hoffen, dass wenigstens die pixelshader performance gut ist.

4xAF ist wohl kein so grosser nachteil, weil die konkurrenz da nicht unbedingt mehr bietet. ab 4xAF ist ja selbst nvidia's AF winkelabhängig.

LovesuckZ
2003-10-03, 23:36:02
Original geschrieben von mapel110
4xAF ist wohl kein so grosser nachteil, weil die konkurrenz da nicht unbedingt mehr bietet. ab 4xAF ist ja selbst nvidia's AF winkelabhängig.

Aehm, das ist nicht dein ernst? Nur weil dies bei ATi so exxtrem ist, bedeutet dies ins keinster Weise, dass Nvidia's 8QAF keinen IQ gewinn gegenüber 4AF bringe.

mapel110
2003-10-04, 00:03:10
Original geschrieben von LovesuckZ
Aehm, das ist nicht dein ernst? Nur weil dies bei ATi so exxtrem ist, bedeutet dies ins keinster Weise, dass Nvidia's 8QAF keinen IQ gewinn gegenüber 4AF bringe.

hab ich gesagt "keinen"?! :|
ich sagte nur "nicht unbedingt mehr".

Ailuros
2003-10-04, 04:49:02
Original geschrieben von LovesuckZ
Neue Informationen bei elitebastards:
Schade ist, dass es nur max 4AF und 4xSSAA gibt. Somit sich die Karte nur schwer gegenüber der Konkurenz durchsetzen werde :(

http://www.elitebastards.com/dw/xgispecs.png (http://www.elitebastards.com/)

Wenn jemand schon fruehe Treiber in der Hand hat und behauptet dass sich wenig geaendert hat seit der Xabre, vertraue ich ihm auch. Na mal sehn wie die Saga weiter geht....

Ailuros
2003-10-04, 05:08:01
Original geschrieben von LovesuckZ
Aehm, das ist nicht dein ernst? Nur weil dies bei ATi so exxtrem ist, bedeutet dies ins keinster Weise, dass Nvidia's 8QAF keinen IQ gewinn gegenüber 4AF bringe.

Er hat aber Recht in dem Sinn dass die Unterschiede zwischen jeder Stufe ab 4xAF schwer zu sehen sind in real-time, ausser ganz gewissen Faellen (um es klarer zu machen 4xAF--> 8xAF oder 8xAF---> 16xAF; 4x--> 16x ist ein ganz anderes Bier) und ja auch bei NV.

Macht nicht immer so einen gigantischen Trubel mit der Winkelabhaengigkeit; keiner kommt zu extremen "wall-hugging" bei Spielen.

Im gegebenen Fall des Volari ist durch den Fuellraten-Einbruch eine Kombination von 4xSSAA/4xAF, sowieso schlecht realisierbar, ausser natuerlich sehr CPU limitierten flight sims.

R3xx/NV3x muessten mit 4xMSAA und quad-texturing etwas 10-12% an Fuellrate verlieren.

Tesseract
2003-10-04, 11:56:55
Original geschrieben von mapel110
mittlerweile kommen ja auch spiele raus, wo man nicht mehr genug performance für AA hat, von daher ists vielleicht ein nicht sooooooo grosse nachteil. bleibt zu hoffen, dass wenigstens die pixelshader performance gut ist.

ich denke, dass eher das gegenteil der fall sein wird
wenn shadern eine größere bedeutung zukommt wird bandbreite nicht mehr der flaschenhals sein und dadurch bleibt genug leistung für AA

@LovesuckZ: einen optischen gewinn kann man auch bei ati sehen in höhren AF graden

aber bei jeder art des AF greift das gesetz des abnehmenden ertrages
der unterschied zwischen 2x und 4x is weit größer als zwischen 4x und 8x usw.
in der bewegung (game) steigert sich das ganze noch

Ailuros
2003-10-04, 12:46:16
ich denke, dass eher das gegenteil der fall sein wird
wenn shadern eine größere bedeutung zukommt wird bandbreite nicht mehr der flaschenhals sein und dadurch bleibt genug leistung für AA

Unter Umstaenden schon bei heutigen Karten, nur sind diese auf Multisampling optimiert. MSAA kommt fast "Fuellraten-frei" auf diesen, wobei Supersampling nach wie vor mit 2xAA die Fuellrate halbiert, mit 4xAA auf 1/4 reduziert.

Ausser Du willst mir wahrmachen dass eine NV3x selbst nach guter Shaderoptimierung spielbar in sehr intensiven Shader-Situationen mit 8xS sein wuerde.

Hier nochmal NV35 Fuellraten Werte; rechts mit 4xS dass nur 2xSupersampling hat.

http://www.beyond3d.com/forum/viewtopic.php?t=7486&start=0&postdays=0&postorder=asc&highlight=

Tesseract
2003-10-04, 13:44:52
Original geschrieben von Ailuros
MSAA kommt fast Fuellraten-frei" auf diesen, wobei Supersampling nach wie vor mit 2xAA die Fuellrate halbiert, mit 4xAA auf 1/4 reduziert.

ich hab nur MSAA gemeint, daher hab ich auch (speicher)bandbreite geschrieben und nicht füllrate

wenn die shaderleistung der flaschenhals ist sollten eigendlich in nahezu jedem szenario genug reserven für MS übrig sein weil die momentanen high-end chips sowieso schon bandbreite "im überfluss" haben (gilt selbstverständlich nicht für SS, den grund hast du eh schon genannt)

ergo ist AA am volari nicht konkurrenzfähig weil der chip zu schwachbrüstig ist um mit roher gewalt gegen MS anzukommen

Radeonator
2003-10-14, 23:35:34
XGI Interview (http://prohardver.hu/rios3_content.php?mod=20&id=265)

Leider umgeht der XGI Mensch wichtige Fragen (wie effizient ist BroadBahn-> was für FSAA modes usw. ) , jedoch gibt er einen netten Einblick in die eigentliche "Dual" Technik :

Chip 1 rendert Frame 1,3,5 -> Chip 2 rendert Frame 2,4,6 ...

klingt irgendwie bekannt, oder ;)

Leider antwortet er auch auf die Frage : Können evtl. beide Chips auf den vollen Speicher zugreifen, vorbei :(

Sehr positiv macht sich jedoch folgendes : Es wird keine Benchmark beschränkten Optimierungen geben und mit final Treibern "gib schub Rakete"...

*stay tuned*

mapel110
2003-10-14, 23:53:16
Original geschrieben von Radeonator
Sehr positiv macht sich jedoch folgendes : Es wird keine Benchmark beschränkten Optimierungen geben und mit final Treibern "gib schub Rakete"...


hrhr, haste aber nen bisschen grosszügig übersetzt ;D

In XGI, we have limited resources, we could only focus in generic optimization which benefits overall performance.


/edit
http://www.hartware.de/news.html?id=34914
angeblich asus und msi mit dabei.