PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Hat XGI eine chance?


Liszca
2003-09-27, 03:01:09
Koenntet ihr einen poll machen?

(x) XGI hat keine chance
(x) chancen sehen sehr gut aus
(x) 50 50 chance fuer xgi
(x) mal abwarten was da rauskommt

betasilie
2003-09-27, 03:14:07
Eine Chance worauf? ... Marktführerschafft, Leistungskrone, zu überleben (1Jahr, 2Jahre, 5Jahre für immer?), 2. im Business zu werden? ???

mapel110
2003-09-27, 03:37:32
Original geschrieben von betareverse
Eine Chance worauf? ... Marktführerschafft, Leistungskrone, zu überleben (1Jahr, 2Jahre, 5Jahre für immer?), 2. im Business zu werden? ???

auf die weltherrschaft =)

naja, eher die consumer-graka-herrschaft ;)

Ailuros
2003-09-27, 05:25:06
Mit guten und stabilen Treibern koennten sie es schaffen einen guten Grundstein im Graphiks-Markt zu setzen und Schritt fuer Schritt in ein paar Jahren das Vertrauen einer staendig zuwachsenden Verbraucher-masse zu gewinnen.

ActionNews
2003-09-27, 07:45:35
Naja mal sehen. Die Xabre-Chips klangen am Anfang auch net schlecht, waren aber dann nicht sooo toll. Wenn XGI das das bei den XabreII-Chips besser hinbekommt mit Treibern und Performance, dann haben sie durchaus eine Chance.

CU ActionNews

PS: Off Topic: Ich setze aber eher auf PowerVR und die Serie 5 :)! Jaja ich weiß ich bin unverbesserlich, aber ich gebe die Hoffnung nicht auf, dass PowerVR uns mit der Serie5 ordentlich überraschen wird :D! Die Gerüchte mit PS/VS 3.0 bei der Serie 5 (was PowerVR in einem Beyond3D-Interview überigens irgendwie bestätigte) usw. klingen jedenfalls vielversprechend :)!

Gast
2003-09-27, 07:56:17
Original geschrieben von betareverse
Eine Chance worauf? ... Marktführerschafft, Leistungskrone, zu überleben (1Jahr, 2Jahre, 5Jahre für immer?), 2. im Business zu werden? ???
Habe irgendwo gelesen, daß sie 2007 die Markführerschaft im Grafikkarten-Sektor anstreben. :)

Sphinx
2003-09-27, 11:12:29
Sie haben sehr gute Möglichkeiten

-> Sich zwischen Ati und Nvidia einzuordnen.

-> Sie müssten wenn ihre Rechnung aufgeht in jedem Segment ein gleichwertiges und oder schnelleres Produkt anbieten als NV/ATi was sie ja auch schließlich vorhaben...

-> Sie werden mit Schnäppchen kommen um sich dort einige Gewinne zu sichern...

-> Ich denke mal das XGi den Markt etwas auflockern wird und durch Nvidia´s Schwächen heißumkämpfte Marktanteile sichern werden. Frage ist halt wie der NV38/36 sich behaupten wird...

-> und zu guter letzt wir alle werden davon profitieren...

Omnicron
2003-09-27, 11:17:13
Wie soll man das beurteilen ??
Bisher gabs ja nur Fotos + 3D Mark Werte vom Marketingstand, daraus will ich nichts schliessen. Warten wir mal auf die ersten echten Reviews / Erfahrunsgberichte.
Sie haben auf jeden Fall einen Sympathie-Bonus weil sie Underdog sind und als einzige Dualkarten anbieten.
Kann mir aber nicht vorstellen das sie von 0 auf 100 hochkompatible Treiber mit XX Features bringen, wofür NV und Ati Jahre gebraucht haben.

LovesuckZ
2003-09-27, 11:20:08
Original geschrieben von Sphinx
-> Ich denke mal das XGi den Markt etwas auflockern wird und durch Nvidia´s Schwächen heißumkämpfte Marktanteile sichern werden. Frage ist halt wie der NV38/36 sich behaupten wird...


Die einzigste Schwaeche liegt in der PS2.0 Leistung und da versagt die Dual karte nach dem Mothernaturetest auch.

mapel110
2003-09-27, 12:39:45
Original geschrieben von LovesuckZ
Die einzigste Schwaeche liegt in der PS2.0 Leistung und da versagt die Dual karte nach dem Mothernaturetest auch.

auf den zercheateten test geb ich nen dreck.

TheCounter
2003-09-27, 16:46:04
Hier mal von Gamestar, für die nächste Ausgabe:

ATI und Nvidia bringen mit Radeon 9800 XT und Geforce FX5950 Ultra Performenceupdates ihrer Flaggschiffe. Als lachender Dritte will XGI mit der 2-Chip-Grafikkarte Volari Duo die beiden Großen ausstechen. Wir testen alle neuen Boards.

Wirds wohl bald benches von den ganzen neuen Karten geben, bin ich ja mal gespannt.

betasilie
2003-09-27, 17:18:52
Original geschrieben von LovesuckZ
Die einzigste Schwaeche liegt in der PS2.0 Leistung und da versagt die Dual karte nach dem Mothernaturetest auch.
Und woher kommen dann die 5600 Punkte?

LovesuckZ
2003-09-27, 17:22:44
Original geschrieben von betareverse
Und woher kommen dann die 5600 Punkte?

Bench 2 und 3 sind deutlich über denen der Konkurenzprodukte. Die PS2.0 leistung dagegen, steht genau auf 9600Pro Niveau im Mothernaturetest.
Ich sehe da das groeßte Problem, den von vielen wird doch das Argument der Zukunftssicherheit als Kaufargument herangezogen...
Doch warten wir erstmal die Leistung in richtigen Spielen ab.

reunion
2003-09-27, 18:02:00
Original geschrieben von Liszca
Koenntet ihr einen poll machen?

(x) XGI hat keine chance
(x) chancen sehen sehr gut aus
(x) 50 50 chance fuer xgi
(x) mal abwarten was da rauskommt

XGI hat keine Chance!

reunion
2003-09-27, 18:04:54
Original geschrieben von LovesuckZ
Bench 2 und 3 sind deutlich über denen der Konkurenzprodukte. Die PS2.0 leistung dagegen, steht genau auf 9600Pro Niveau im Mothernaturetest.
Ich sehe da das groeßte Problem, den von vielen wird doch das Argument der Zukunftssicherheit als Kaufargument herangezogen...
Doch warten wir erstmal die Leistung in richtigen Spielen ab.

Wobei keiner weiß wie, wo, oder unter welchen Bedinungen getestet wurde. Also ich würde die Werte mit vorsicht genießen...

Und wenn es nur nach der zukunftssicherheit gehen würde dann würde kein Mensch eine FX kaufen :D

LovesuckZ
2003-09-27, 18:06:09
Original geschrieben von reunion
Und wenn es nur nach der zukunftssicherheit gehen würde dann würde kein Mensch eine FX kaufen :D

Das wird doch jeden eingeredet, dass er sich jez eine Karte für die in 6 - 12 Monate erscheinenden Spiele kaufen solle...:D

Mr. Lolman
2003-09-27, 18:23:24
Original geschrieben von LovesuckZ
Bench 2 und 3 sind deutlich über denen der Konkurenzprodukte. Die PS2.0 leistung dagegen, steht genau auf 9600Pro Niveau im Mothernaturetest.


Die werden doch sicher noch ihre Treiber auf den Mother Nature Test optimieren *eg*

betasilie
2003-09-27, 19:02:42
Original geschrieben von LovesuckZ
Bench 2 und 3 sind deutlich über denen der Konkurenzprodukte. Die PS2.0 leistung dagegen, steht genau auf 9600Pro Niveau im Mothernaturetest.
Ich sehe da das groeßte Problem, den von vielen wird doch das Argument der Zukunftssicherheit als Kaufargument herangezogen...
Doch warten wir erstmal die Leistung in richtigen Spielen ab.
Wow, dann musss die Karte ja bei den GT2/3 richtig viel Punkte holen, wenn am Ende noch 5600 Punkte rausholen. :o

Wo finde ich denn eine Aufschlüsselung des 3DM-Test mit der V8-Duo?

Gast
2003-09-27, 19:42:00
Duo V8:

5370 (+61%)

GT1 = 154.1 (+26%)
GT2 = 47.3 (+125%)
GT3 = 36.3 (+88%)
GT4 = 20.4 (+4%)


9800PRO:

5364

GT1 = 164.9
GT2 = 36.3
GT3 = 32.8
GT4 = 33.0


hab leider nicht mehr die 9600pro drin ...die % angabe bezieht sich darauf!(nicht auf die 9800pro)...sorry

betasilie
2003-09-27, 21:33:59
Thanks @ gast

Ist schon Wahnsinn, dass sich die V8 Shaderleistung wieder ganz anders verteilt, als die der beiden großen.

Jetzt wäre noch mal interessant, ob der PS1.4 der Schwachpunkt ist oder die PS2.0, wobei es sicher besser wäre, wenn die PS1.4 den Schwachpunkt darstellen und nicht die PS2.0.

Demirug
2003-09-27, 21:42:25
Original geschrieben von betareverse
Thanks @ gast

Ist schon Wahnsinn, dass sich die V8 Shaderleistung wieder ganz anders verteilt, als die der beiden großen.

Jetzt wäre noch mal interessant, ob der PS1.4 der Schwachpunkt ist oder die PS2.0, wobei es sicher besser wäre, wenn die PS1.4 den Schwachpunkt darstellen und nicht die PS2.0.

Aufgrund der vorhandenen Informationen würde ich sagen das alle Shader nicht sonderlich gut laufen werden und es bei steigender Versionsnummer schlimmer wird.

Das GT2 und GT3 so gut aussehen sollte eine Folge der guten Stencilleistung sein.

LovesuckZ
2003-09-27, 21:51:59
Original geschrieben von Demirug
Aufgrund der vorhandenen Informationen würde ich sagen das alle Shader nicht sonderlich gut laufen werden und es bei steigender Versionsnummer schlimmer wird.


Schon ne Theorie warum dies so ist?

Dunkeltier
2003-09-27, 23:02:07
Original geschrieben von Demirug
Aufgrund der vorhandenen Informationen würde ich sagen das alle Shader nicht sonderlich gut laufen werden und es bei steigender Versionsnummer schlimmer wird.

Das GT2 und GT3 so gut aussehen sollte eine Folge der guten Stencilleistung sein.

Also eignet sich die Karte besonders für Stencil-lastige Games (wie z.B. auch für die kommende Doom III Engine)?

Demirug
2003-09-27, 23:11:39
Original geschrieben von LovesuckZ
Schon ne Theorie warum dies so ist?

Nicht unbedingt aber das gerade die 2.0 Shaderleistung durchaus eine Frage des Treibers sein kann ist ja nichts neues. Und dann ist ja auch noch die Frage wie die Tatsache das es pro 2 Pipelines nur einen Shader gibt den nun genau zu verstehen ist. Also was ist bei XGI eine Pipeline und was ist ein Shader?

Demirug
2003-09-27, 23:13:17
Original geschrieben von Dunkeltier
Also eignet sich die Karte besonders für Stencil-lastige Games (wie z.B. auch für die kommende Doom III Engine)?

Im Prinzip sieht es so aus. Wobei da natürlich noch andere Faktoren eine Rolle spielen werden. Bei DOOM III kann das aber aufgrund der unterschiedlichen Renderpfade durchaus noch interesant werden.

betasilie
2003-09-27, 23:35:11
Original geschrieben von Demirug
Aufgrund der vorhandenen Informationen würde ich sagen das alle Shader nicht sonderlich gut laufen werden und es bei steigender Versionsnummer schlimmer wird.

Das GT2 und GT3 so gut aussehen sollte eine Folge der guten Stencilleistung sein.
Klingt logisch. Dann bin ich mal auf DIII-Benchmarks gespannt.

BigBen
2003-09-28, 00:01:00
Ich denke XGI wird es in der Anfangszeit, wie wohl jedes Unternehmen in dieser Position, ziehmlich schwer haben. Es gilt in etwa das Niveau von nVidia und ATi zu erreichen, um genug potenzielle Kunden zu gewinnen bzw. überzeugen.

Wenn die Qualität der Treiber und dessen Support gut ist, wäre das für mich schon die halbe Miete. Die Performence ist natürlich auch nicht gerade unwichtig, aber wenn der Preis stimmt, könnten sich schon genug Kunden finden, damit XGI überleben kann :D

Gruß
Ben

Ailuros
2003-09-28, 02:29:36
Original geschrieben von Gast
Duo V8:

5370 (+61%)

GT1 = 154.1 (+26%)
GT2 = 47.3 (+125%)
GT3 = 36.3 (+88%)
GT4 = 20.4 (+4%)


9800PRO:

5364

GT1 = 164.9
GT2 = 36.3
GT3 = 32.8
GT4 = 33.0


hab leider nicht mehr die 9600pro drin ...die % angabe bezieht sich darauf!(nicht auf die 9800pro)...sorry

Die Nummern wurden zuerst von mir gepostet und die 9600PRO und 9800PRO Werte von Tech-Report Reviews; da 3dmark2003 ziemlich GPU-limitiert ist, macht das verwendete System wohl nicht arg grossen Unterschied.

Ailuros
2003-09-28, 02:41:33
Original geschrieben von Demirug
Im Prinzip sieht es so aus. Wobei da natürlich noch andere Faktoren eine Rolle spielen werden. Bei DOOM III kann das aber aufgrund der unterschiedlichen Renderpfade durchaus noch interesant werden.

Hab ich auch schon daran gedacht, nur kamen dann schnell wieder Bedenken zu stencil op/AA Kombinationen.

Die Anordnungen und Loesungs-moeglichkeiten der Z/stencil Einheiten oder ROPs haben wir ja schon oefters besprochen; dabei wissen wir wohl bis jetzt nur dass duoV8 ueber 16 Z/stencil Einheiten verfuegt (genauso viel wie bei R3xx und genauso viel ROPs auf NV3x), aber wie sich die Karte mit AA verhaelt ist wohl noch ein Fragezeichen.

***edit:

early Z hatten sie ja schon im Xabre (was D3 betrifft); ist zwar keine Garantie aber eine erwuenschte Vorraussetzung fuer Doom3 rendering.

reunion
2003-09-28, 11:20:48
Original geschrieben von Demirug
Das GT2 und GT3 so gut aussehen sollte eine Folge der guten Stencilleistung sein.

Oder eine Folge der guten "Optimierungen" :D

Sir Integral Wingate Hellsing
2003-09-28, 11:47:49
Original geschrieben von ActionNews
Naja mal sehen. Die Xabre-Chips klangen am Anfang auch net schlecht, waren aber dann nicht sooo toll. Wenn XGI das das bei den XabreII-Chips besser hinbekommt mit Treibern und Performance, dann haben sie durchaus eine Chance.

CU ActionNews

PS: Off Topic: Ich setze aber eher auf PowerVR und die Serie 5 :)! Jaja ich weiß ich bin unverbesserlich, aber ich gebe die Hoffnung nicht auf, dass PowerVR uns mit der Serie5 ordentlich überraschen wird :D! Die Gerüchte mit PS/VS 3.0 bei der Serie 5 (was PowerVR in einem Beyond3D-Interview überigens irgendwie bestätigte) usw. klingen jedenfalls vielversprechend :)!

Man weiß, das etwas von XGI kommt.... von PVR weiß man das nicht :D

eQ
2003-09-28, 22:13:56
Volari V8 Ultra
_____________________________________
Duo GPU
AGP8X
Engine Clock 350MHz
DDR2 Support DDR2-500MHz
DDR Support DDR-375MHz+
Max. DRAM 512MB*
DirectX 9.0
OpenGL 1.4
Pipeline 16
Vertex Shader 4
Pixel Shader 8
Shader Ver. 2.0
Video In Optional
Dual View XV301
Dual Digital Duo XV301
DAC 400MHz
Memory
Architecture
BroadBahn™
Video Processor Cipher™
Navigator a
Hardware Rotate Rotech™
Unified Driver Reactor™
Utility ControlDeck™
*Total On-board
_____________________________________

Die High-End Variante wird bestimmt interessant. :)

Ailuros
2003-09-29, 02:13:21
Original geschrieben von Sir Integral Wingate Hellsing
Man weiß, das etwas von XGI kommt.... von PVR weiß man das nicht :D

*ahem*

http://www.beyond3d.com/interviews/pvrmbx/index.php?p=6

Sir Integral Wingate Hellsing
2003-09-29, 02:34:43
Toll, aber davon hat PVR nix, solange keiner die Chips produziert... Die Vorserien/Test-Chips können sie sich von mir aus um den Hals hängen :D

Ailuros
2003-09-29, 03:12:15
Original geschrieben von Sir Integral Wingate Hellsing
Toll, aber davon hat PVR nix, solange keiner die Chips produziert... Die Vorserien/Test-Chips können sie sich von mir aus um den Hals hängen :D

Bleibt abzuwarten bis es erstmal so weit kommt. Es ist viel zu frueh fuer naechster Generation chips.

Falls es Serie5 zeitig genug auf die Regale schafft, haette ich zumindest damit einen wahren Upgrade und keinen Sidegrade momentan. :bäh:

Sir Integral Wingate Hellsing
2003-09-29, 11:16:57
Original geschrieben von Ailuros
Bleibt abzuwarten bis es erstmal so weit kommt. Es ist viel zu frueh fuer naechster Generation chips.

Falls es Serie5 zeitig genug auf die Regale schafft, haette ich zumindest damit einen wahren Upgrade und keinen Sidegrade momentan. :bäh:

Papiertiger gibt es schon genug! :|

Ailuros
2003-09-29, 18:45:18
Original geschrieben von Sir Integral Wingate Hellsing
Papiertiger gibt es schon genug! :|

PS/VS2.0 Karten zu sehr guten Preisen momentan genauso.

Was Papiertiger betrifft, hier XG45:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=96635

Nur hoechstwahrscheinlich mit einem Jahr Verspaetung.

Noch was sinnvolles zur Debatte zuzufuegen?

Sir Integral Wingate Hellsing
2003-09-30, 09:58:47
Original geschrieben von Ailuros
PS/VS2.0 Karten zu sehr guten Preisen momentan genauso.

Was Papiertiger betrifft, hier XG45:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=96635

Nur hoechstwahrscheinlich mit einem Jahr Verspaetung.

Noch was sinnvolles zur Debatte zuzufuegen?

Ja genug. Wir reden hier vom Volari V5/V8/Duo und nicht vom XG45. Und die obengenannten kommen DEMNÄCHST raus.
Und von PVR nunmal eben nicht. Darum gings mir, um mehr net. Und den Spruch oben kannste Dir stecken, rumposen kann ich auch :)

ShadowXX
2003-09-30, 10:32:18
Original geschrieben von Sir Integral Wingate Hellsing
Ja genug. Wir reden hier vom Volari V5/V8/Duo und nicht vom XG45. Und die obengenannten kommen DEMNÄCHST raus.
Und von PVR nunmal eben nicht. Darum gings mir, um mehr net. Und den Spruch oben kannste Dir stecken, rumposen kann ich auch :)

XGI hat meiner Meinung nach nur eine Chance, wenn die Treiber gleich zum Start völlig 'ok' sind.
Damit spiele ich mehr auf Kompatibilität als auf Geschwindigkeit an......
Aber wenn Sie die Treiber weiter 'asiatisch' stricken (= möglichst viele FPS, rest egal), sehe ich Schwarz.

Dazu kommt das es XGI im 'konservative' Europa sowieso nicht leicht haben wird....('XGI..kann man das essen??')

J.S.Shadow

Sir Integral Wingate Hellsing
2003-09-30, 14:50:02
Ja, da stimme ich zu.
XGI sollte den TurboTex Scheiss von SiS gleich vergessen...
Wenn der Reactor-Treiber ansonsten gut is, dann kann ja EIGENTLICH nix schiefgehen... ;)

Ailuros
2003-09-30, 18:07:53
Original geschrieben von Sir Integral Wingate Hellsing
Ja genug. Wir reden hier vom Volari V5/V8/Duo und nicht vom XG45. Und die obengenannten kommen DEMNÄCHST raus.
Und von PVR nunmal eben nicht. Darum gings mir, um mehr net. Und den Spruch oben kannste Dir stecken, rumposen kann ich auch :)

Du scheinst einen gewissen Tick zu haben mit Sachen herumzuhaengen oder stecken oder? Wenn Du jetzt auch noch glaubst dass ich mit solchem laecherlichem Kram beleidigt werden kann liegst Du wohl falsch.

Viel Spass mit Deiner Volari, will Dir ja den Spass nicht verderben :D

Gast
2003-09-30, 18:12:29
Original geschrieben von Ailuros
Du scheinst einen gewissen Tick zu haben mit Sachen herumzuhaengen oder stecken oder? Wenn Du jetzt auch noch glaubst dass ich mit solchem laecherlichem Kram beleidigt werden kann liegst Du wohl falsch.

Viel Spass mit Deiner Volari, will Dir ja den Spass nicht verderben :D Seit wann so armselig? Dolle fand ich deinen spruch auch nicht!

Sir Integral Wingate Hellsing
2003-09-30, 18:14:33
Original geschrieben von Gast
Seit wann so armselig? Dolle fand ich deinen spruch auch nicht!

Das meine ich aber auch :)

Ich glaub der Typ mag einfach den Namen "Volari" net ;D

btw: Ich sag nur 500 Mio Entwicklungskosten...

Ailuros
2003-09-30, 18:21:26
Original geschrieben von Sir Integral Wingate Hellsing
Das meine ich aber auch :)

Ich glaub der Typ mag einfach den Namen "Volari" net ;D

btw: Ich sag nur 500 Mio Entwicklungskosten...

Ich hab was gegen Fliegen, gegen Volari unbedingt nicht.

500M turkish pounds? :D

Gast
2003-09-30, 18:25:01
Original geschrieben von Ailuros
Ich hab was gegen Fliegen, gegen Volari unbedingt nicht.

500M turkish pounds? :D Ich will aber mal hoffen das du nicht noch was gegen die von dir oben genannte rase hast oh man wo ist dein Niveau geblieben das muß doch nun wirklich nicht sein

Ailuros
2003-09-30, 18:27:41
Jetzt mal allen ernstes, die gesamte VSA-100 Entwicklung kostete damals das selige 3dfx etwas ueber 20M $ US, um einen aelteren Vergleich machen zu koennen.

Wenn ich jetzt ernsthaft glauben soll dass eine gesamte Produktlinie um 100$ mehr gekostet haben soll als bei ATI/NVIDIA, zu dem mit Spezifikationen die ein Jahr spaeter ankommen, dann wird hier entweder bodenlos gelogen oder es wird eine Unmenge von Geld fuer nichts verplempert was eher unwahrscheinlich klingt.

Die R3xx oder NV3x R&D Unkosten betreffen dabei alle Varianten der Basis-Archiktur wo man chips von den beiden antrifft und nicht nur den PC standalone oder mobile Markt.

Ailuros
2003-09-30, 18:29:23
Original geschrieben von Gast
Ich will aber mal hoffen das du nicht noch was gegen die von dir oben genannte rase hast oh man wo ist dein Niveau geblieben das muß doch nun wirklich nicht sein

Wenn Du es schaffst einen sinnvollen Satz zu artikulieren, antworte ich auch darauf. Die feige Anonymitaet uebersehe ich erst mal.

Gast
2003-09-30, 19:14:10
Original geschrieben von Ailuros
Wenn Du es schaffst einen sinnvollen Satz zu artikulieren, antworte ich auch darauf. Die feige Anonymitaet uebersehe ich erst mal. Ja massa, das mit der Anonymität überhöre ich mal, wenn du keine weiteren Argumente hast!
PS
Ich übersehe auch, das du in Dänemark, Finnland oder wo auch immer steckst, keine Umlaute schreiben kannst! Es geht schon wenn man weis wie!

Ailuros
2003-10-01, 03:36:39
Original geschrieben von Gast
Ja massa, das mit der Anonymität überhöre ich mal, wenn du keine weiteren Argumente hast!
PS
Ich übersehe auch, das du in Dänemark, Finnland oder wo auch immer steckst, keine Umlaute schreiben kannst! Es geht schon wenn man weis wie!

Argumente gegen genau was?

Du kannst trotzdem versuchen mir das folgende Mal zu erklaeren:

Ich will aber mal hoffen das du nicht noch was gegen die von dir oben genannte rase hast oh man wo ist dein Niveau geblieben das muß doch nun wirklich nicht sein

Umlaute gibt es mit Absicht nicht und Deutsch ist tatsaechlich nicht meine Muttersprache; dafuer ist mein Deutsch immer noch besser als jede Fremdsprache die so mancher benutzen koennte und dabei ist es leider auch nicht die einzige.

Umlaute gibt's mit einem "switch" auf dem Keyboard in XP, leider ist das OS noch nicht so weit fuer anstaendige Syntax Korrekturen zu sorgen, ueberhaupt wenn es sich um die Muttersprache von jemand handelt ja? :weg:

Gast
2003-10-01, 03:49:44
Original geschrieben von Ailuros
Argumente gegen genau was?

Du kannst trotzdem versuchen mir das folgende Mal zu erklaeren:



Umlaute gibt es mit Absicht nicht und Deutsch ist tatsaechlich nicht meine Muttersprache; dafuer ist mein Deutsch immer noch besser als jede Fremdsprache die so mancher benutzen koennte und dabei ist es leider auch nicht die einzige.

Umlaute gibt's mit einem "switch" auf dem Keyboard in XP, leider ist das OS noch nicht so weit fuer anstaendige Syntax Korrekturen zu sorgen, ueberhaupt wenn es sich um die Muttersprache von jemand handelt ja? :weg: Ist doch gar kein Thema, bloß du warst halt nicht so Freundlich wie ich es von deinen anderen posts gewohnt bin!
Ja gewohnt (bin Dauer Gast).
Erklären kann ich im Moment nichts :)
Aber man kann ja vernünftig reden, ohne Anspielungen! Deswegen spielte ich auf türkisch an (weist schon falscher Umlaut:) )

Ailuros
2003-10-01, 04:02:14
Och ich bin meistens schnell auf Provokationen zu antworten, was eigentlich sowieso die Norm ist.

Kann kein tuerkisch; Griechisch, Deutsch, Englisch, Latein, Italienisch und sehr wenig Franzoesich (igittiggitt :D ). Insel Kreta wenn's helfen sollte *wink*

Gast
2003-10-01, 04:06:31
Original geschrieben von Ailuros
Och ich bin meistens schnell auf Provokationen zu antworten, was eigentlich sowieso die Norm ist.

Kann kein tuerkisch; Griechisch, Deutsch, Englisch, Latein, Italienisch und sehr wenig Franzoesich (igittiggitt :D ). Insel Kreta wenn's helfen sollte *wink*
Ja genau wußte ich es nicht mehr:)
Kollege ist in Oslo der hat das selbe prob:)

Aber Thema ist ja eh durch!
Gute Nacht

kmf
2003-10-02, 22:49:31
Original geschrieben von Sir Integral Wingate Hellsing
Ich sag nur 500 Mio Entwicklungskosten...

Jeder fängt mal klein an. ;D

SKYNET
2003-10-02, 23:56:08
Original geschrieben von reunion
Oder eine Folge der guten "Optimierungen" :D

die heißen net ATI oder NV :P
aber mit der zeit werden dies auch lernen zu optimieren :D

SKYNET
2003-10-02, 23:57:07
Original geschrieben von eQ
Volari V8 Ultra
_____________________________________
Duo GPU
AGP8X
Engine Clock 350MHz
DDR2 Support DDR2-500MHz
DDR Support DDR-375MHz+
Max. DRAM 512MB*
DirectX 9.0
OpenGL 1.4
Pipeline 16
Vertex Shader 4
Pixel Shader 8
Shader Ver. 2.0
Video In Optional
Dual View XV301
Dual Digital Duo XV301
DAC 400MHz
Memory
Architecture
BroadBahn™
Video Processor Cipher™
Navigator a
Hardware Rotate Rotech™
Unified Driver Reactor™
Utility ControlDeck™
*Total On-board
_____________________________________

Die High-End Variante wird bestimmt interessant. :)

core wird 400MHz haben und nicht 350MHz

SKYNET
2003-10-02, 23:58:59
Original geschrieben von Sir Integral Wingate Hellsing
Ja, da stimme ich zu.
XGI sollte den TurboTex Scheiss von SiS gleich vergessen...
Wenn der Reactor-Treiber ansonsten gut is, dann kann ja EIGENTLICH nix schiefgehen... ;)



hoffentlich gibt es ne turbo-tex option im treiber :D

frames for life... or 3Dmark ;)

SKYNET
2003-10-03, 00:01:39
Original geschrieben von Liszca
Koenntet ihr einen poll machen?

(x) XGI hat keine chance
(x) chancen sehen sehr gut aus
(x) 50 50 chance fuer xgi
(x) mal abwarten was da rauskommt


[X] chancen sehn sehr gut aus !

LovesuckZ
2003-10-03, 20:40:56
3 Gruende, warum ich für die Dual Karten keine Chance sehe:

-AA begrenzt auf 4xSSAA
-AF begrenzt auf maximal 4
-und anscheinend keine berauschende PS2.0 leistung und damit Versagen im HL2 Bench.

erst wenn diese 3 Punkte beseitigt sind, koennte XGI zu einer ernstzunehmenden Konkurenz werden.

reunion
2003-10-03, 20:59:00
Original geschrieben von LovesuckZ
3 Gruende, warum ich für die Dual Karten keine Chance sehe:

-AA begrenzt auf 4xSSAA
-AF begrenzt auf maximal 4
-und anscheinend keine berauschende PS2.0 leistung und damit Versagen im HL2 Bench.

erst wenn diese 3 Punkte beseitigt sind, koennte XGI zu einer ernstzunehmenden Konkurenz werden.

Und da alle drei Werte "Hardwarebegrenzt" ist die Karte für mich praktisch wertlos...

Liszca
2003-10-05, 03:40:41
Original geschrieben von LovesuckZ
3 Gruende, warum ich für die Dual Karten keine Chance sehe:

-AA begrenzt auf 4xSSAA
-AF begrenzt auf maximal 4
-und anscheinend keine berauschende PS2.0 leistung und damit Versagen im HL2 Bench.

erst wenn diese 3 Punkte beseitigt sind, koennte XGI zu einer ernstzunehmenden Konkurenz werden.

dass mit dem 4x af sehe ich nicht so eng, wenn es ein sauberer trilinearer modus ist wird er der konkurenz ebenbuertig sein die ja auf bilinear (runter)optimiert hat!

Ailuros
2003-10-05, 03:54:47
NV/ATI haben einen "Trend" im Markt mit den Aniso Optimierungen gesetzt; da bezweifle ich allen ernstes dass da alle "Kleinen" total unschuldig bleiben werden, was extra "Leistungsmodi" betrifft.

Bei 4xAF sehe ich auch kein grosses Problem; aber es verbleibt maximal 4x bilinear oder 4x trilinear AF.

Leistungs optimierte Aniso modi wird es weiterhin geben, nur erwarte ich dass ATI/NV es doch in der absehbaren Zukunft dem User zu ueberlassen ob er maximale Filterungs-qualitaet einschalten will oder nicht. Es wurde ja auch genuegend darueber gemeckert.

LovesuckZ
2003-10-05, 08:23:11
Original geschrieben von Ailuros
NV/ATI haben einen "Trend" im Markt mit den Aniso Optimierungen gesetzt; da bezweifle ich allen ernstes dass da alle "Kleinen" total unschuldig bleiben werden, was extra "Leistungsmodi" betrifft..

Bittet Nvidia kein sauberes 4QAF an?

Original geschrieben von Liszca
dass mit dem 4x af sehe ich nicht so eng, wenn es ein sauberer trilinearer modus ist wird er der konkurenz ebenbuertig sein die ja auf bilinear (runter)optimiert hat!

Bei ATi kann man es mit einem Umweg umgehen, bei Nvidia ist es bis auf UT2003 immer trilinaer.

Ailuros
2003-10-05, 19:27:51
Bittet Nvidia kein sauberes 4QAF an?

Wenn sie endlich die bugs aus den Treibern (siehe 51.75 z.B.) herausgetrieben haben, dann gibt es nur eine positive Antwort auf diese Frage bei "application driven" modi. Les nochmal nach ich erwaehnte sehr spezifisch "leistungs-modi" und in dem Fall handelt es sich nicht nur um bi-/trilinear mixed modi, sondern wird auch eventuel auf Level2x bei hoeheren texturing stages reduziert. So "sauber" in etwa ja?

Bei ATi kann man es mit einem Umweg umgehen, bei Nvidia ist es bis auf UT2003 immer trilinaer.

rTool oder Applikation momentan; hoffentlich werden zukuenftige Treiber bei beiden IHVs ein CP setting fuer hoechstmoegliche Qualitaet bieten.

mapel110
2003-10-28, 06:00:28
Original geschrieben von LovesuckZ

bei Nvidia ist es bis auf UT2003 immer trilinaer. [/SIZE]

tja, das war einmal :D


http://www.theinquirer.org/?article=12362
gigabyte und poweroolor wohl definitiv mit an bord beim volari start =)

BlueRaven
2003-10-28, 20:26:29
(x) chancen sehen sehr gut aus




BlueRaven