PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kriegt ATI kalte Füße - Radeon 9800 Pro Maxx VS. XGI Volari Duo 8


Dunkeltier
2003-09-26, 23:40:31
Könnte es sein, das die "Machbarkeitsstudie" von Sapphire (siehe die Radeon 9800 Pro MAXX Threads) eine mögliche Gegenantwort auf das Schlachschiff von XGI sein wird? Der Duo 8 kratzt ja so ziemlich an den Image von den beiden bisherigen Kontrahenten Ati und nVidia (über 5600 3D Penis-Marks mit Beta-Treibern)... Ati und nVidia werden wenn XGI tatsächlich im Nov. releast, zum handeln gezwungen sein werden (wer will schon gerne die Krone abgeben?).

http://www.hardware.fr/medias/photos_news/00/06/IMG0006943.jpg
VS.
http://www.volarigamers.com/pic/v/dark.JPG

betasilie
2003-09-26, 23:57:01
Dieser Notfall ist ja noch nicht eingetroffen.

ATI wird seine Anstreungen auf die neuen Chips konzentrieren, den Dualchip-Lösungen sollten nicht wirklich ins Programm des Marktführers gehören. ;)

Wenn man bedenkt, dass der R420 im Fühjahr kommt, dann wird so eine Dual-Chip-Lösung für ATI nicht nötig werden, und was der R360 kann wissen wir noch nicht.

3rr0r
2003-09-26, 23:59:33
Original geschrieben von Dunkeltier
Könnte es sein, das die "Machbarkeitsstudie" von Sapphire (siehe die Radeon 9800 Pro MAXX Threads) eine mögliche Gegenantwort auf das Schlachschiff von XGI sein wird? Der Duo 8 kratzt ja so ziemlich an den Image von den beiden bisherigen Kontrahenten Ati und nVidia (über 5600 3D Penis-Marks mit Beta-Treibern)... Ati und nVidia werden wenn XGI tatsächlich im Nov. releast, zum handeln gezwungen sein werden (wer will schon gerne die Krone abgeben?).

Ich glaube noch nicht so recht an diese Graka, die Daten der Karte hören sich recht interessant an, bei der fx5800 waren die Specs am anfang auch gut bis die Karte da war und dann wurde sie niedergestampft. Obwohl sich XGI da was schönes "gebastelt" hat denke ich mal das eine 2Chiplösung nicht das bringt was es verspricht, ist sehr wahrscheinlich nur Marketing. Wie du schreibst is es ein Betatreiber mit dem sie 5600 Punkte gemacht haben, ich beckomme mit dem 5175 auch 6500 punkte, also lieber warten bis das produkt da ist und genügend Reviews zu sehen sind. S3 ist auch noch da, mit ihrem Deltachrome, ich denke mal es wird nächstes Jahr sicher spannend im Grakabereich. Uns User kann das nur freuen denn mehr konkurenz drückt den Preis.

Exxtreme
2003-09-27, 00:01:31
Also dem "Schlachtschiff" von XGI sehe ich gelassen entgegen. ;)

ATi hat woanders viele Trümpfe in der Hand. :)

StefanV
2003-09-27, 00:01:44
...das dumme ist nur, daß das keine 9800 MAXX ist...

Ailuros
2003-09-27, 00:14:05
DuoV8 zeigt bis jetzt eine Shader-Leistung die etwa auf 9600PRO Niveau liegt; die extra Punkte die eine duoV8 etwa auf 9800PRO Niveau in 3dmark2003 bringen, verdankt sie ihrer guten Stencil-Leistung.

MotherNature gibt etwa 20fps auf duoV8, waehrend eine 9600PRO auf etwa gleichem Niveau liegt.

Hamster
2003-09-27, 00:21:32
Original geschrieben von betareverse
Dieser Notfall ist ja noch nicht eingetroffen.

ATI wird seine Anstreungen auf die neuen Chips konzentrieren, den Dualchip-Lösungen sollten nicht wirklich ins Programm des Marktführers gehören. ;)

Wenn man bedenkt, dass der R420 im Fühjahr kommt, dann wird so eine Dual-Chip-Lösung für ATI nicht nötig werden, und was der R360 kann wissen wir noch nicht.

wieso darf es keine dualchiplösungen geben? und wer sagt, dass ati marktführer ist? :|


bestes beispiel für eine gelungene dualchiplösung war die voodoo2. sie lief recht problemlos, und in unkosten musste man sich auch nicht sofort stürzen, dam an izi die 2. karte nachkaufen konnte.

sowas wünsche ich mir für die zukunft!

Exxtreme
2003-09-27, 00:26:00
Original geschrieben von Ailuros
DuoV8 zeigt bis jetzt eine Shader-Leistung die etwa auf 9600PRO Niveau liegt; die extra Punkte die eine duoV8 etwa auf 9800PRO Niveau in 3dmark2003 bringen, verdankt sie ihrer guten Stencil-Leistung.

MotherNature gibt etwa 20fps auf duoV8, waehrend eine 9600PRO auf etwa gleichem Niveau liegt.
Also wenn das stimmt, dann freue ich mich für XGI. Konkurrenz braucht der Markt dringend. Aber schnelle HW zu haben ist nur die halbe Miete.

Ailuros
2003-09-27, 00:28:37
bestes beispiel für eine gelungene dualchiplösung war die voodoo2. sie lief recht problemlos, und in unkosten musste man sich auch nicht sofort stürzen, dam an izi die 2. karte nachkaufen konnte.

Eigentlich das schlimmste Beispiel:

a) V2 war keine multichip Loesung sondern eine dual board Loesung.

b) 300 + 300$ + 2D Karte

c) SLI ist fuer heutige Verhaeltnisse passe.

Ailuros
2003-09-27, 00:34:02
Original geschrieben von Exxtreme
Also wenn das stimmt, dann freue ich mich für XGI. Konkurrenz braucht der Markt dringend. Aber schnelle HW zu haben ist nur die halbe Miete.

Im grossen Volari thread hab ich die vier game test (GT1,2,3,4) Resultate der duoV8 gepostet, bin nur zu faul es wieder zu finden.

Was soll da so toll dran sein wenn man zwei boards braucht um die Shaderleistung einer 9600PRO zu erreichen?

Unbekannt ist immer noch wie die Resultate genau erreicht wurden, und die AA/AF Leistung und Qualitaet. Echte Spiele Leistung moecht ich eher auch noch sehen. DuoV8 soll 499$ beim Launch kosten und ja es stecken nur 256mb ram drauf AFAIK.

betasilie
2003-09-27, 00:34:37
Original geschrieben von Hamster
wieso darf es keine dualchiplösungen geben? und wer sagt, dass ati marktführer ist? :|

Der bessere Weg ist immer eine gute Singel-Chiplösung, um ein exzellentes P/L-Verhältniss zu bieten. So bald man zwei Chips braucht, um mit der Konkurrenz mithalten zu können, muss man nicht nur zwei Chips bezahlen, sondern auch das teure PCB. Daher sollte eine DualChip-Lösung nur im Notfall herhalten.

Persönlich finde ich Dual-Chip-Boards allerdings sehr geil vom Design. :D

... Naja ich glaube, dass ATI z.Zt. mehr GraKas verkauft als NV, aber das ist nur so ein Gefühl. ;)

Original geschrieben von Hamster
bestes beispiel für eine gelungene dualchiplösung war die voodoo2. sie lief recht problemlos, und in unkosten musste man sich auch nicht sofort stürzen, dam an izi die 2. karte nachkaufen konnte.

Die V2-Karten konnten man im SLI-Mode laufen lassen und das war wirklich teuer. Von Dual-Chip war da nix zu sehen.

Exxtreme
2003-09-27, 00:37:45
Original geschrieben von Ailuros
Im grossen Volari thread hab ich die vier game test (GT1,2,3,4) Resultate der duoV8 gepostet, bin nur zu faul es wieder zu finden.

Was soll da so toll dran sein wenn man zwei boards braucht um die Shaderleistung einer 9600PRO zu erreichen?

Unbekannt ist immer noch wie die Resultate genau erreicht wurden, und die AA/AF Leistung und Qualitaet. Echte Spiele Leistung moecht ich eher auch noch sehen. DuoV8 soll 499$ beim Launch kosten und ja es stecken nur 256mb ram drauf AFAIK.
Naja, man muss aber auch sagen, daß bessere Treiber noch vielleicht was reissen könnten.

Und das könnte sich als grösste Achillesferse der Volari-GraKas erweisen: Treiber. :)

Den Vorsprung, den ATi hat, werden sie nicht so schnell einholen können. Und ATi wird jetzt mit dem CAT3.8 auch mächtig zulegen. :)

Ailuros
2003-09-27, 00:39:47
... Naja ich glaube, dass ATI z.Zt. mehr GraKas verkauft als NV, aber das ist nur so ein Gefühl.

Nur im high end Bereich; da das groesste Verkaufsvolumen aber im Value Markt anzutreffen ist, haelt sich NVIDIA nach wie vor sehr gut mit Verkaufszahlen. Wenn man jetzt zu den Margen kommt koennte es leicht zu extremer Haarspalterei kommen. ATI hat aber zweifellos den mindshare Vorteil was ein sehr guter Grundstein fuer noch intensivere Konkurrenz in der Zukunft (von top to bottom) sein kann.

Hamster
2003-09-27, 00:46:35
Original geschrieben von betareverse
Der bessere Weg ist immer eine gute Singel-Chiplösung, um ein exzellentes P/L-Verhältniss zu bieten. So bald man zwei Chips braucht, um mit der Konkurrenz mithalten zu können, muss man nicht nur zwei Chips bezahlen, sondern auch das teure PCB. Daher sollte eine DualChip-Lösung nur im Notfall herhalten.

Persönlich finde ich Dual-Chip-Boards allerdings sehr geil vom Design. :D

... Naja ich glaube, dass ATI z.Zt. mehr GraKas verkauft als NV, aber das ist nur so ein Gefühl. ;)


Die V2-Karten konnten man im SLI-Mode laufen lassen und das war wirklich teuer. Von Dual-Chip war da nix zu sehen.

1. nein ich sehe das umgekehrt. 1-chip lösungen sollten immer schnell und konkurrenzfähig sein. für hardcoregamer kann man dann ruhig eine fast doppelt so schnelle dualchip lösung anbieten.

2. das glaube ich nicht, tim. in komplettpcs spielt ati kaum eine rolle, und da steckt der massenmarkt.

3. stimmt schon. die v2 war nicht direkt eune dualchiplösung, und irgendwie doch. man hätte ohne probleme auch die 2 chips auf ein pcb pflanzen können (gabs das nicht sogar?).
sli finde ich heute noch klasse, schade, dass kein hersteller mehr darauf anspringt. vor allem seit die 8x agp spec 2 agp plätze zulässt.
alle anderen dualchiplösungen (von 3dfx oder ati) waren ja aus verschiedenen gründen leider nicht so von erfolg gekrönt.


4. so teuer waren v2 karten angesichts der heutigen top-grakas auch nicht.

Ailuros
2003-09-27, 00:46:52
Original geschrieben von Exxtreme
Naja, man muss aber auch sagen, daß bessere Treiber noch vielleicht was reissen könnten.

Und das könnte sich als grösste Achillesferse der Volari-GraKas erweisen: Treiber. :)

Den Vorsprung, den ATi hat, werden sie nicht so schnell einholen können. Und ATi wird jetzt mit dem CAT3.8 auch mächtig zulegen. :)

Ausser dass ich was falsch verstanden habe, ist 3.8 eher ein neue Features Treiber.

Volari kann maximal 4xAA; wenn dass nur ein ordered grid ist helfen selbst sehr stabile Treiber nicht viel. Immer noch schlimmer nur 4xAF. Der End-User ist sehr anspruchsvoll im Bereich AA/AF in letzter Zeit geworden.

Wenn XGi wirklich mit der dual board Version abheben will, waere ein 8x sample sparse grid ein wahres Killer feature. Multichip Karten sind ja ideal um AA Leistung und Qualitaet zu verdoppeln. Auf deren Hauptseite steht aber nichts dergleichen da. Bei 499$ MSRP erwarte ich zumindest Gleichstand wenn nicht umso einig besseres als die Konkurrenz.

mapel110
2003-09-27, 00:50:21
Original geschrieben von Ailuros
Im grossen Volari thread hab ich die vier game test (GT1,2,3,4) Resultate der duoV8 gepostet, bin nur zu faul es wieder zu finden.


http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=94367&perpage=20&pagenumber=13
hier
sofern man default page view im user profil hat :)

Duo V8:

5370 (+61%)

GT1 = 154.1 (+26%)
GT2 = 47.3 (+125%)
GT3 = 36.3 (+88%)
GT4 = 20.4 (+4%)

(Prozente in Relation zu RV350)

9600PRO:

3334

GT1 = 122.2
GT2 = 21.0
GT3 = 19.3
GT4 = 19.6

9800PRO:

5364

GT1 = 164.9
GT2 = 36.3
GT3 = 32.8
GT4 = 33.0

copy/paste tuts auch. =)

schon sehr ordentlich. zumindest lässt sich wohl schon sagen, dass es kein parhelia debakel geben wird.

die 9800 mit zwei chips wirds ja wohl nie geben.
da braucht man imo wirklich kein hellseher zu sein.

Ailuros
2003-09-27, 00:58:14
Original geschrieben von Hamster
1. nein ich sehe das umgekehrt. 1-chip lösungen sollten immer schnell und konkurrenzfähig sein. für hardcoregamer kann man dann ruhig eine fast doppelt so schnelle dualchip lösung anbieten.

Entwicklungs- und Fertigungs-Kosten sind doppelt so hoch. Eine dual chip R350 wuerde heute nicht weniger als 800-900$ kosten.

stimmt schon. die v2 war nicht direkt eune dualchiplösung, und irgendwie doch. man hätte ohne probleme auch die 2 chips auf ein pcb pflanzen können (gabs das nicht sogar?).

Ja VSA-100 oder die V4/5 Linie. V5 5500 mit zwei chips war nur mit FSAA zweimal so schnell, da jeder chip bis zu 2xFSAA faehig war. Problem war dass nicht nur jeder chip seinen eigenen Speicher brauchte aber dass zwischen den chips der triangle setup nicht geteilt wurde.

4. so teuer waren v2 karten angesichts der heutigen top-grakas auch nicht.

Ich hab damals die 600$ + die extra 2D Karte selber damals bezahlt. Ich fuehlte mich schoen bloed als ich nach nicht allzu langer Zeit ein bisschen mehr als nur 1/3 fuer eine V3 3000 bezahlte. Schneller war die letztere dann auch noch.

Hamster
2003-09-27, 01:07:36
Original geschrieben von Ailuros
1.Entwicklungs- und Fertigungs-Kosten sind doppelt so hoch. Eine dual chip R350 wuerde heute nicht weniger als 800-900$ kosten.



2.Ja VSA-100 oder die V4/5 Linie. V5 5500 mit zwei chips war nur mit FSAA zweimal so schnell, da jeder chip bis zu 2xFSAA faehig war. Problem war dass nicht nur jeder chip seinen eigenen Speicher brauchte aber dass zwischen den chips der triangle setup nicht geteilt wurde.



3.Ich hab damals die 600$ + die extra 2D Karte selber damals bezahlt. Ich fuehlte mich schoen bloed als ich nach nicht allzu langer Zeit ein bisschen mehr als nur 1/3 fuer eine V3 3000 bezahlte. Schneller war die letztere dann auch noch.


1. nicht unbedingt. wenn man sli als ansatz nehmen würde, würden sich die entwicklungskosten in grenzen halten.
das dies allerdings nicht das optimum ist, sollte klar sein, aber hier überweigt dann der kosten-nutzen faktor.

2. wenn ich voodoo2 sage, mein ich voodoo2. da brauchste nicht mit v4 und v5 kommen. also stell mich nicht so unwissen und dich so unwissend dar. :)
übrigens: ein tipp von einem unwissenden: die v4 war eine einzelchiplösung.... *g*

3. nunja, selbst schuld :D
die v2 konntest du ja dafür auch schon im frühjahr 1997 kaufen, während die v3 ja erst im sommer 1998 erschien. auch sollte dir damals in tests aufgefallen sein, dass sich der umstieg eigentlich nicht wirklich gelohnt hätte :D

betasilie
2003-09-27, 01:12:48
Original geschrieben von Hamster
1. nein ich sehe das umgekehrt. 1-chip lösungen sollten immer schnell und konkurrenzfähig sein. für hardcoregamer kann man dann ruhig eine fast doppelt so schnelle dualchip lösung anbieten.

2. das glaube ich nicht, tim. in komplettpcs spielt ati kaum eine rolle, und da steckt der massenmarkt.

3. stimmt schon. die v2 war nicht direkt eune dualchiplösung, und irgendwie doch. man hätte ohne probleme auch die 2 chips auf ein pcb pflanzen können (gabs das nicht sogar?).
sli finde ich heute noch klasse, schade, dass kein hersteller mehr darauf anspringt. vor allem seit die 8x agp spec 2 agp plätze zulässt.
alle anderen dualchiplösungen (von 3dfx oder ati) waren ja aus verschiedenen gründen leider nicht so von erfolg gekrönt.


4. so teuer waren v2 karten angesichts der heutigen top-grakas auch nicht.
Ailuros hat dir ja schon stellvertretend geanwortet.

...
Die V2-SLI Lösung war damals saumäßig teuer. :spock:

Ailuros
2003-09-27, 01:19:26
also stell mich nicht so unwissen und dich so unwissend dar.

War nicht meine Absicht. Uebrigens da steht ein "un-" zuviel drin :D

3. nunja, selbst schuld
die v2 konntest du ja dafür auch schon im frühjahr 1997 kaufen, während die v3 ja erst im sommer 1998 erschien. auch sollte dir damals in tests aufgefallen sein, dass sich der umstieg eigentlich nicht wirklich gelohnt hätte.

Ein Jahr ist schon genug um sich bloed zu fuehlen fuer den Ueber-Preis dass ein dual V2 setup kostete. Angenommen ich koennte heute eine zweite R300 ins System stecken, waere es genauso viel verplempertes Geld, anstatt ein bisschen mehr warten und das Geld besser fuer die naechste Generation von Karten zu investieren.

***edit:

Eine Karte im Vergleich zu drei ist schon ein Unterschied; ausserdem brauchte ich die PCI Steckplaetze und ich hab die V2´s auch verkauft.

Gast
2003-09-27, 01:48:45
Worlds First Dual Graphics Processor, steht bei XGI auf ihrer HP, waren nicht 3dfx die ersten die sowas gemacht haben??

Quasar
2003-09-27, 01:51:39
Original geschrieben von Hamster
3. stimmt schon. die v2 war nicht direkt eune dualchiplösung, und irgendwie doch. man hätte ohne probleme auch die 2 chips auf ein pcb pflanzen können (gabs das nicht sogar?).

Naja, auf einer V2 werkelten immerhin drei Chips....

Aber meintest du evtl. das hier:
http://home.arcor.de/quasat/HW-Pics/Quantum%20Obsidian%20X24.jpg

Birdman
2003-09-27, 02:16:01
Original geschrieben von Hamster
1. nicht unbedingt. wenn man sli als ansatz nehmen würde, würden sich die entwicklungskosten in grenzen halten.
das dies allerdings nicht das optimum ist, sollte klar sein, aber hier überweigt dann der kosten-nutzen faktor.

Leider haben heutige Mainboards nur 1 AGP-Slot und man müsste also eine AGP sowie PCI karte designen wenn man eine Dual-Board Lösung bauen will. Dazu kommen noch viel andere Probleme, wenn eine Karte im PCI und die andere im AGP läuft, z.B. der Datentransfer vom System zur Graka, etc.

Ailuros
2003-09-27, 02:40:58
Original geschrieben von Quasar
Naja, auf einer V2 werkelten immerhin drei Chips....

Aber meintest du evtl. das hier:


ROFL :D Schon lange her dass ich eine Obsidian2 gesehen habe.

Quantum3D skaliert heutzutage NV Graphikkarten in ihren Systemen; die Dinger sind ja auch suendhaft teuer und nur fuer professionelle Simulatoren-Systeme.

betasilie
2003-09-27, 03:34:14
Original geschrieben von Birdman
Leider haben heutige Mainboards nur 1 AGP-Slot und man müsste also eine AGP sowie PCI karte designen wenn man eine Dual-Board Lösung bauen will. Dazu kommen noch viel andere Probleme, wenn eine Karte im PCI und die andere im AGP läuft, z.B. der Datentransfer vom System zur Graka, etc.
Ack, und es gibt noch viel andere technische und wirtschaftliche Gründe.
Die Idee wieder eine SLI-Technik einzuführen ist einfach hirnrissig, imho. :bäh:

betasilie
2003-09-27, 03:38:32
Original geschrieben von Quasar
Naja, auf einer V2 werkelten immerhin drei Chips....

Aber halt kein Dual-Chip, bei dem zwei gleiche Chips parallel an einem Bild arbeiten. ;)

Wie waren die Funktionen bei der V2 eigentlich auf die 3 Chips aufgeteilt?

Salvee
2003-09-27, 06:08:53
Original geschrieben von betareverse
Wie waren die Funktionen bei der V2 eigentlich auf die 3 Chips aufgeteilt?

AFAIK waren die beiden 'oberen' Chips die TMUs (TexelFX), der untere war der Rasterizer (PixelFX).

Jeder hatte seine eigene 64-Bit Anbindung an jeweils 4 MB EDO-RAM (die oberen hatten den Texturspeicher, der untere den Framebuffer).

So oder so ähnlich jedenfalls ;)

DasToem
2003-09-27, 09:28:12
Original geschrieben von Hamster
3. nunja, selbst schuld :D
die v2 konntest du ja dafür auch schon im frühjahr 1997 kaufen, während die v3 ja erst im sommer 1998 erschien. auch sollte dir damals in tests aufgefallen sein, dass sich der umstieg eigentlich nicht wirklich gelohnt hätte :D

Nope, die V2 kam 1998, die V3 1999.

Tigerchen
2003-09-27, 09:36:14
Original geschrieben von Hamster
1. nein ich sehe das umgekehrt. 1-chip lösungen sollten immer schnell und konkurrenzfähig sein. für hardcoregamer kann man dann ruhig eine fast doppelt so schnelle dualchip lösung anbieten.

Zu teuer.Für die paar verrückte Gamer lohnt dies nicht.


2. das glaube ich nicht, tim. in komplettpcs spielt ati kaum eine rolle, und da steckt der massenmarkt.

Allmählich kommt es aber auch unten an daß ATI jetzt die besseren Chips baut.Wart mal das nächste Jahr ab!



3. stimmt schon. die v2 war nicht direkt eune dualchiplösung, und irgendwie doch. man hätte ohne probleme auch die 2 chips auf ein pcb pflanzen können (gabs das nicht sogar?).
sli finde ich heute noch klasse, schade, dass kein hersteller mehr darauf anspringt. vor allem seit die 8x agp spec 2 agp plätze zulässt.
alle anderen dualchiplösungen (von 3dfx oder ati) waren ja aus verschiedenen gründen leider nicht so von erfolg gekrönt.

Warum wohl?Weil man damit kein Geld verdienen kann.





4. so teuer waren v2 karten angesichts der heutigen top-grakas auch nicht. [/SIZE][/QUOTE]

reunion
2003-09-27, 15:55:51
Original geschrieben von mapel110
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=94367&perpage=20&pagenumber=13
hier
sofern man default page view im user profil hat :)

Duo V8:

5370 (+61%)

GT1 = 154.1 (+26%)
GT2 = 47.3 (+125%)
GT3 = 36.3 (+88%)
GT4 = 20.4 (+4%)

(Prozente in Relation zu RV350)

9600PRO:

3334

GT1 = 122.2
GT2 = 21.0
GT3 = 19.3
GT4 = 19.6

9800PRO:

5364

GT1 = 164.9
GT2 = 36.3
GT3 = 32.8
GT4 = 33.0

copy/paste tuts auch. =)

schon sehr ordentlich. zumindest lässt sich wohl schon sagen, dass es kein parhelia debakel geben wird.

die 9800 mit zwei chips wirds ja wohl nie geben.
da braucht man imo wirklich kein hellseher zu sein.

:lol:

Man bekommt ein paar 3dmark Werte und schon weiß man wie schnelle die Dual V8 sein wird...

Der 3dmark sagt doch absolut gar nichts über die Leistungfähigkeit einer 3d-Karte aus!

Man könnte genausogut wir schon beim Vorgängerchip die Texturqualität gesenkt haben um dieses Ergebnis zu erreichen! Oder einfach gewisse Bildbereiche weggelassen worden sein wie schon bei NV. Wer weiß??? Tatsache ist das man wohl jede Karte mit entsprechenden "optimierungen" im 3dmark auf 5K Punkte hiefen kann.

Das bis jetzt nur 3dmark Werte veröffentlicht wurden zeig für mich ganz klar wie schnell die karte wirklich sein wird. Ich erwarte einen leistung die maximal im Bereich der 9600pro einzusiedeln ist.

Ganz davon abgesehen dass die Treiber vermutlich absoluter Schrott sein werden und man für jedes Spiel x-patches und Treiberupdates brauchen wird um spielen zu können.

Außerdem wird XGI wohl kaum gewinne machen können, da NV und ATI den gleichen Preis für einen Chip verlangen können.(Hat man ja sehr schön anhand von 3dfx gesehen)

Also meinermeing nach wird die Karte der gleiche Flop wie auch schon die Xaber...

mfg
reu

Dunkeltier
2003-09-27, 16:46:58
So Schrott wie die fehlerhaften Treiber von nVidia & Ati momentan (ich spreche aus Erfahrung)? Was alle vergessen zu scheinen ist, das es hier nicht um den Kosten/Nutzen Effekt oder die Verkaufszahlen geht, sondern um die Prestige im High-End Gamermarkt. Einfache Rechnung: Schnelle Karte = hohe (bzw. steigende) Absatzzahlen in allen Bereichen (Low-End, Mainstream und High-End).

betasilie
2003-09-27, 17:16:20
Original geschrieben von Salvee
AFAIK waren die beiden 'oberen' Chips die TMUs (TexelFX), der untere war der Rasterizer (PixelFX).

Jeder hatte seine eigene 64-Bit Anbindung an jeweils 4 MB EDO-RAM (die oberen hatten den Texturspeicher, der untere den Framebuffer).

So oder so ähnlich jedenfalls ;)
Thanks. ;)

Original geschrieben von Dunkeltier
So Schrott wie die fehlerhaften Treiber von nVidia & Ati momentan (ich spreche aus Erfahrung)?
:spock: Ich habe absolut keine Probleme mit den ATI-Treibern.

LovesuckZ
2003-09-27, 17:24:29
Original geschrieben von betareverse
:spock: Ich habe absolut keine Probleme mit den ATI-Treibern.

ebenfalls mit denen von Nvidia...

reunion
2003-09-27, 18:01:04
Original geschrieben von Dunkeltier
So Schrott wie die fehlerhaften Treiber von nVidia & Ati momentan (ich spreche aus Erfahrung)? Was alle vergessen zu scheinen ist, das es hier nicht um den Kosten/Nutzen Effekt oder die Verkaufszahlen geht, sondern um die Prestige im High-End Gamermarkt. Einfache Rechnung: Schnelle Karte = hohe (bzw. steigende) Absatzzahlen in allen Bereichen (Low-End, Mainstream und High-End).

fehlerhafte treiber??
Ganz davon abgesehen das ich keine ahnung haben was du damit meinst glaube ich das die XGI Treiber vermutlich noch um einiges "fehlerhafter" sein werden...

Das man im High End Markt nicht das große geld machen kann ist mir schon klar nur vergisst du das der V8 Chip als Singel Chip Variante vermutlich auch nicht billiger herzustellen ist als die aktuellen High End Chips der Konkurenten und dabei kaum mehr als die 9600pro kosten "darf"

betasilie
2003-09-27, 18:35:09
Original geschrieben von LovesuckZ
ebenfalls mit denen von Nvidia...
Und deswegen frage ich mich was Dunkeltier mit schrottigen Treibern meint.

Dunkeltier
2003-09-27, 22:50:33
Original geschrieben von betareverse
Und deswegen frage ich mich was Dunkeltier mit schrottigen Treibern meint.

1) Die ganzen aF "Optimierungen". Ich will selbst darüber bestimmen, was ich gefiltert haben will und was nicht. Auch nervt mich es, das SSAA mit den ATI-Treibern nicht geht (ausgenommen der Mac).
2) Die Bildfehler die ATI und nVidia Treiber haben. Mein aktuelles Problem ist immer noch das in-Game Menü in Natural-Selection mit der mobility Radeon 9600...

Liszca
2003-09-27, 23:35:12
Original geschrieben von Salvee
AFAIK waren die beiden 'oberen' Chips die TMUs (TexelFX), der untere war der Rasterizer (PixelFX).

Jeder hatte seine eigene 64-Bit Anbindung an jeweils 4 MB EDO-RAM (die oberen hatten den Texturspeicher, der untere den Framebuffer).

So oder so ähnlich jedenfalls ;)

und wie war es dann bei der 8 mb version verteilt?

ow
2003-09-27, 23:45:16
.

Ailuros
2003-09-28, 02:24:55
Original geschrieben von Dunkeltier
So Schrott wie die fehlerhaften Treiber von nVidia & Ati momentan (ich spreche aus Erfahrung)? Was alle vergessen zu scheinen ist, das es hier nicht um den Kosten/Nutzen Effekt oder die Verkaufszahlen geht, sondern um die Prestige im High-End Gamermarkt. Einfache Rechnung: Schnelle Karte = hohe (bzw. steigende) Absatzzahlen in allen Bereichen (Low-End, Mainstream und High-End).

Mitte Juni 2003:

http://www.mitrax.de/review.php?id=11

Wieso wuerde sich wohl ein Radeon9500 oder GF4Ti Benutzter in dem Fall am sichersten fuehlen?

1) Die ganzen aF "Optimierungen". Ich will selbst darüber bestimmen, was ich gefiltert haben will und was nicht. Auch nervt mich es, das SSAA mit den ATI-Treibern nicht geht (ausgenommen der Mac).
2) Die Bildfehler die ATI und nVidia Treiber haben. Mein aktuelles Problem ist immer noch das in-Game Menü in Natural-Selection mit der mobility Radeon 9600...

Und was bitte garantiert uns dass XGi mit dem Track Record die SiS chips haben schon seit Jahren, dass alles so sein wird wie es sein sollte?

TurboTex in dem Fall war bis jetzt eine optimale default Textur-Filterungs-Methode; natuerlich konnte man das Ding in der Registry abstellen, nur sank die Leistung viel zu viel in die Tiefe. Dabei handelte es sich nichtmal um eine SW Schaeche.

Bildfehler und deren Anzahl in den benutzten Applikationen sind im obrigen Review zu sehen.

Dunkeltier
2003-09-28, 03:04:54
Original geschrieben von Ailuros
Mitte Juni 2003:

http://www.mitrax.de/review.php?id=11

Wieso wuerde sich wohl ein Radeon9500 oder GF4Ti Benutzter in dem Fall am sichersten fuehlen?



Und was bitte garantiert uns dass XGi mit dem Track Record die SiS chips haben schon seit Jahren, dass alles so sein wird wie es sein sollte?

TurboTex in dem Fall war bis jetzt eine optimale default Textur-Filterungs-Methode; natuerlich konnte man das Ding in der Registry abstellen, nur sank die Leistung viel zu viel in die Tiefe. Dabei handelte es sich nichtmal um eine SW Schaeche.

Bildfehler und deren Anzahl in den benutzten Applikationen sind im obrigen Review zu sehen.


Jeder macht anfangs mal Fehler. Ich kann mich noch gut an die Treiber meiner Riva 128ZX mit 8 MB von nVidia erinnern, die waren alles andere als ausgereift. Eine Generation später sah es schon viel besser aus, als ich die Diamond Viper V550 hatte (RivaTNT, 16 MB). Jeden Hersteller sollte man eine Chance geben, nur wenn er's ständig versaut würde ich auch die Finger davon lassen. Und da XGI den High-End Markt diesmal anvisiert, wird man sich wohl kaum Scherze mit deb Treibern erlauben können. Sonst kann man gleich wieder einpacken...

betasilie
2003-09-28, 03:11:50
Original geschrieben von Dunkeltier
Jeder macht anfangs mal Fehler. Ich kann mich noch gut an die Treiber meiner Riva 128ZX mit 8 MB von nVidia erinnern, die waren alles andere als ausgereift. Eine Generation später sah es schon viel besser aus, als ich die Diamond Viper V550 hatte (RivaTNT, 16 MB). Jeden Hersteller sollte man eine Chance geben, nur wenn er's ständig versaut würde ich auch die Finger davon lassen. Und da XGI den High-End Markt diesmal anvisiert, wird man sich wohl kaum Scherze mit deb Treibern erlauben können. Sonst kann man gleich wieder einpacken...
Full Ack. Wenn ich an die treiber der 128ZX denke, bekomme ich heute noch graue Haare. ... Die Diamond Viper V550 war hingegen schon viel ausgereifter von den Treibern, aber die Hardware natürlich auch. :up:

Man sollte einen Hersteller nicht sofort abschreiben, nur weil mal eine Serie schlecht war. SIS hätte ich auf dem Chipsatzmarkt auch keinen 735 oder 745 zugetraut, weil sie vorher soviel Mist gebaut haben.

Ailuros
2003-09-28, 03:18:19
Original geschrieben von Dunkeltier
Jeder macht anfangs mal Fehler. Ich kann mich noch gut an die Treiber meiner Riva 128ZX mit 8 MB von nVidia erinnern, die waren alles andere als ausgereift. Eine Generation später sah es schon viel besser aus, als ich die Diamond Viper V550 hatte (RivaTNT, 16 MB). Jeden Hersteller sollte man eine Chance geben, nur wenn er's ständig versaut würde ich auch die Finger davon lassen. Und da XGI den High-End Markt diesmal anvisiert, wird man sich wohl kaum Scherze mit deb Treibern erlauben können. Sonst kann man gleich wieder einpacken...

XGi=

100 HW und 150 SW engineers. Eine Summe von SiS und Trident Talenten. SiS hat seit 1998 jedes Jahr eine 3d Graphiks-Karte veroeffentlicht.

Es ging mir hier eher ueber die Behauptung wie mies heute ATI/NV Treiber sein sollen. In dem Fall wuerde ich eher erstmal in Richtung SiS schielen und dann Kritik auf die anderen IHVs ausrichten, ueberhaupt wenn es sich bei beiden momentan um die besten Treiber der Industrie handelt.

XGi ist derjenige der hier nachholen muss und nicht die anderen zwei.

***edit: uebrigens ist die bilineare Approximation ein "HW-Feature" schon seit etlichen Jahren und nicht nur bei Xabre anzutreffen. Ich will allen ernstes hoffen dass sie endlich dieses miese Zeug losgeworden sind.

dildo4u
2003-09-29, 23:00:25
http://www.volarigamers.com/pic/v/xgi1.jpg

Ailuros
2003-09-30, 01:57:44
Goldig von Volarigamers heh. Man klebt stolz den eigenen Titel auf die jpeg Flaeche drauf, wenn man nicht mal den Anstand hat, den originalen jpeg umzubenennen.

http://users.otenet.gr/~ailuros/xgi1.jpg

Ein schlechter Photoshop job noch dazu :D

Crushinator
2003-09-30, 02:47:53
:motz: Grrr... Also, was lernen wir daraus? Das nächste mal möchte ich ein Ailuros-Logo mit Wasserzeichen drauf, möglichst mit published for/on 3dcenter.de :D

Ailuros
2003-09-30, 03:06:46
Nichts gegen die Benutzung von Material, solange man nicht sein eigenes Logo draufklebt. Es ist nichtmal der Rede wert, aber so moechten sich manche zeigen wie gut informiert sie sind ;D

Tomi
2003-09-30, 08:55:23
Bei Hercules gibt's ein kleines Ratespiel...ne Grafikkarte unter einem weißen Tuch mit 2 "Buckeln" ;)

http://www.computerbase.de/news.php?id=6225&sid=3508773f5ec3618d3f26ab329ac97197

DrumDub
2003-09-30, 10:42:12
Original geschrieben von Tomi
Bei Hercules gibt's ein kleines Ratespiel...ne Grafikkarte unter einem weißen Tuch mit 2 "Buckeln" ;)

http://www.computerbase.de/news.php?id=6225&sid=3508773f5ec3618d3f26ab329ac97197

leider nicht. es handelt sich um eine soundkarte, wie man an dem dazugehörigen banner sieht ("gibt was auf die ohren").

http://www.hercules.de/images/banners/nspg.swf

x-dragon
2003-09-30, 14:07:13
Original geschrieben von DrumDub
leider nicht. es handelt sich um eine soundkarte, wie man an dem dazugehörigen banner sieht ("gibt was auf die ohren").

http://www.hercules.de/images/banners/nspg.swf Was soll denn das für eine Soundkarte sein, mit 2 Lüftern :???:

Vielleicht war der Spruch eher auf Lautstärke der Lüfter bezogen :stareup:.

[edit]
Das Thema gibts hier schon:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=96799

SKYNET
2003-10-02, 23:45:40
Original geschrieben von reunion
:lol:

Man bekommt ein paar 3dmark Werte und schon weiß man wie schnelle die Dual V8 sein wird...

Der 3dmark sagt doch absolut gar nichts über die Leistungfähigkeit einer 3d-Karte aus!

Man könnte genausogut wir schon beim Vorgängerchip die Texturqualität gesenkt haben um dieses Ergebnis zu erreichen! Oder einfach gewisse Bildbereiche weggelassen worden sein wie schon bei NV. Wer weiß??? Tatsache ist das man wohl jede Karte mit entsprechenden "optimierungen" im 3dmark auf 5K Punkte hiefen kann.

Das bis jetzt nur 3dmark Werte veröffentlicht wurden zeig für mich ganz klar wie schnell die karte wirklich sein wird. Ich erwarte einen leistung die maximal im Bereich der 9600pro einzusiedeln ist.

Ganz davon abgesehen dass die Treiber vermutlich absoluter Schrott sein werden und man für jedes Spiel x-patches und Treiberupdates brauchen wird um spielen zu können.

Außerdem wird XGI wohl kaum gewinne machen können, da NV und ATI den gleichen Preis für einen Chip verlangen können.(Hat man ja sehr schön anhand von 3dfx gesehen)

Also meinermeing nach wird die Karte der gleiche Flop wie auch schon die Xaber...

mfg
reu

1. die graka wird DEUTLICH schneller sein wie ne 9600pro und auf dem level einer 9800XT ~ eher darüber zufinden sein

2. die treiber werden am anfang evtl. nicht die besten sein, aber langen um NV & ATI zuzeigen das sie nicht allein sind in sachen highend grafik, ,aus ausserdem.... ATI hat es ja auch plötzlich von einem monat auf den anderen geschafft nen guten treiber zu programieren.... warum soll SiS/XGI das nicht auch schaffen können ?

3. ich glaube der preis für die chip herstellung ist denen wie schon gesagt wurde egal, prestige ist alles
zumal SiS als einer der größten chip hersteller kaum finanzielle sorgen hat und das verkraften kann die erste highend graka generation aus eigendem hause zum selbstkostenpreis zu verticken

4. finde ich es lustig das viele leute "newcomer" immer unterschätzen.... haben viele auch bei der 9700pro gemacht... was war ? metzelte alles nieder was dawar :D
das gleiche kann/wird auch mit ATI/NV passieren im november wenn es die volari zukaufen gibt

5. wenn die karte soschlecht währe würden kaum powercolor & gigabyte schon als feste partner feststehn und andere große hersteller(u.a. hercules) großes intresse zeigen, ne totgeburt wird die karte also schonmal nicht !