PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : XG45 von XGI...


Gaestle
2003-09-29, 13:12:59
Hallo,

laut der Roadmap von http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=96635 plant XGI 2004 mit dem XG45 wohl einen Refresh der demnächst erscheinenden Chips.

Dazu zwei Fragen dazu an Euch:
Was ist DX9.1 ? Ich denke, sowas gibt's nicht und solls auch nicht geben? Soll dies seitens XGI eher ein (missglückter) Hinweis auf VS/PS3.0 darstellen?

Glaubt Ihr, dass 128Bit-Ram-Anbindung reichen werden?

Ich bin gespannt...

Grüße

MadManniMan
2003-09-29, 14:26:23
Original geschrieben von Gaestle
Dazu zwei Fragen dazu an Euch:
Was ist DX9.1 ? Ich denke, sowas gibt's nicht und solls auch nicht geben? Soll dies seitens XGI eher ein (missglückter) Hinweis auf VS/PS3.0 darstellen?

Ich vermute eher Letzteres.

Original geschrieben von Gaestle
Glaubt Ihr, dass 128Bit-Ram-Anbindung reichen werden?

Als Single-Chip-Lösung: im LowCost-Segment ja, als Mainstream vielleicht, aber der XG45 soll ja wohl eher der Nachfolger für den V8 werden, oder?
Als Dual-Chip-Lösung: mit nünftigen Taktraten vielleicht auch im High-End. Vielleicht...

Aber warum spekulieren wir über Nachfolger von noch nicht releasten Karten? ?-)

;)

Original geschrieben von Gaestle
Ich bin gespannt...


Dito :)

Gaestle
2003-09-29, 18:29:00
Original geschrieben von MadManniMan
Aber warum spekulieren wir über Nachfolger von noch nicht releasten Karten? ?-)

Weil es laut Roadmap nur noch ein Jahr sein soll, die Vorgängerchips ja nun fast da sind und dieser Chip (das Spekulationsobjekt) doch auch von einiger Bedeutnung für XGI sein dürfte und weil dies hier das Speku-Forum ist und weil ich es eine interessante Sache finde...

Besonders wegen der Aussage "DX9.1". Ich kann nicht recht glauben, dass - auch wenn es um Marketing geht - solche Böcke geschossen werden...

Grüße

Ailuros
2003-09-29, 18:52:15
Was ist DX9.1 ? Ich denke, sowas gibt's nicht und solls auch nicht geben? Soll dies seitens XGI eher ein (missglückter) Hinweis auf VS/PS3.0 darstellen?

Ich befuerchte dass Vendors zu solchen dx9.1 Schnappschuessen mehrere Male greifen werden, da man dx9.0 schlecht vermarkten kann, wenn ein chip PS/VS3.0 Funktionalitaeten hat.

Es handelt sich tatsaechlich um einen 3.0 Shader chip der schon als Nachfolger der XabreII auf SiS voriger roadmap stand.

13nm
8*2
128bit bus (??)
PS/VS3.0

Kommt ganz drauf an wie der data-flow intern im chip angelegt ist; 8*1 waere noch ok wuerde ich sagen mit einem 128bit bus; mit 8*2 wird's schon eher in die Enge geringen.

robbitop
2003-10-02, 09:02:17
ich finde die sollten erstmal versuchen ihre Taktraten zu steigern. Ich meine 350Mhz Core ist wirklich etwas wenig.
Gut man spart an PCB Kosten, es können schlechtere Bauteile verwand werden...aber für ne Ultra Version wäre es ok.

@ailuros
mit dem 8x2 währe ich sehr vorsichtig.
Der XG40 soll angebloch 8x1 sein, es ist allerdings wohl nur ein 4x2 Chip, Mit angeblich 4 Fullprescicionpipelines.
Bei der PS Leistung tippe ich eher auf 2....

Währe ich XGI würde ich bei der relativ niedrigen Integration bleiben. Denn wenn sie den Chip wirklich "vollpacken", wird es nichts mit einer DualVersion, welche den eindeutigen Vorteil der geringereren Entwicklungsaufwandes für sich hat. (man muss den Einzelnen chip nicht so extrem entwickeln und das ist bei XGis grösse nicht ganz falsch...so können sie auch öfter mal eine neue Generation bringen).

Gaestle
2003-10-02, 17:55:08
Original geschrieben von robbitop
Wäre ich XGI würde ich bei der relativ niedrigen Integration bleiben. Denn wenn sie den Chip wirklich "vollpacken", wird es nichts mit einer DualVersion, welche den eindeutigen Vorteil der geringereren Entwicklungsaufwandes für sich hat. (man muss den Einzelnen chip nicht so extrem entwickeln und das ist bei XGis grösse nicht ganz falsch...so können sie auch öfter mal eine neue Generation bringen).



interessantes Argument...
dadurch könnte xgi auch bei einer dualchiplösung eine marge haben...

wenn die rechnung stimmt...



Grüße

SKYNET
2003-10-02, 23:17:57
schätze mal das die XG45 ne dualkarte sein wird mit nem aufgebohrtem V8 mit ner taktung von 500/1200(DDR2) und 512-1024MB ram....

und wenn die karte ebenfalls sowas wird wie die DUA V8 ULTRA verspricht dann können sich ATI & NV GANZ warm anziehn, aber dennoch finde ich es garnicht schlecht wenn ATI & NV mal beide ne fist ins face bekommen, damit sie merken das sei nicht alleine sind und die user verarschen können, weil was die zum teil abziehn.....

Ailuros
2003-10-03, 01:49:53
Original geschrieben von robbitop
ich finde die sollten erstmal versuchen ihre Taktraten zu steigern. Ich meine 350Mhz Core ist wirklich etwas wenig.
Gut man spart an PCB Kosten, es können schlechtere Bauteile verwand werden...aber für ne Ultra Version wäre es ok.

@ailuros
mit dem 8x2 währe ich sehr vorsichtig.
Der XG40 soll angebloch 8x1 sein, es ist allerdings wohl nur ein 4x2 Chip, Mit angeblich 4 Fullprescicionpipelines.
Bei der PS Leistung tippe ich eher auf 2....

Währe ich XGI würde ich bei der relativ niedrigen Integration bleiben. Denn wenn sie den Chip wirklich "vollpacken", wird es nichts mit einer DualVersion, welche den eindeutigen Vorteil der geringereren Entwicklungsaufwandes für sich hat. (man muss den Einzelnen chip nicht so extrem entwickeln und das ist bei XGis grösse nicht ganz falsch...so können sie auch öfter mal eine neue Generation bringen).

Was meinst Du mit vorsichtig?

Ich weiss genau wie viele wahre Pipelines die V8 hat, darum geht es hier ja auch nicht. Die alte SiS roadmap hatte einen 8*2 PS/VS3.0 chip fuer die Zukunft vorgesehen. Dabei wiederhole ich dass mit einem 128bit bus 8*1 noch reicht, aber 8*2 uebertrieben ist. In diesem Fall meine ich den XG45 der fuer H2 2004 vorgesehen ist und nicht XG40.

PS: uebrigens bei duo V8 ist 2*(4*2) = 8*2

Ailuros
2003-10-03, 01:54:39
Original geschrieben von SKYNET
schätze mal das die XG45 ne dualkarte sein wird mit nem aufgebohrtem V8 mit ner taktung von 500/1200(DDR2) und 512-1024MB ram....

und wenn die karte ebenfalls sowas wird wie die DUA V8 ULTRA verspricht dann können sich ATI & NV GANZ warm anziehn, aber dennoch finde ich es garnicht schlecht wenn ATI & NV mal beide ne fist ins face bekommen, damit sie merken das sei nicht alleine sind und die user verarschen können, weil was die zum teil abziehn.....

XG45 ist fuer single chip geplant AFAIK. Mit PS/VS3.0 macht dual chip auch viel weniger Sinn.

DuoV8:

16 texture ops (8 pro chip)
8 arithmetic ops (4 pro chip)
4 VS (2 pro chip)

R3xx:

8 texture ops
8 arithmetic ops
4 VS

Tigerchen
2003-10-03, 07:24:17
Original geschrieben von robbitop
ich finde die sollten erstmal versuchen ihre Taktraten zu steigern. Ich meine 350Mhz Core ist wirklich etwas wenig.
Gut man spart an PCB Kosten, es können schlechtere Bauteile verwand werden...aber für ne Ultra Version wäre es ok.

@ailuros
mit dem 8x2 währe ich sehr vorsichtig.
Der XG40 soll angebloch 8x1 sein, es ist allerdings wohl nur ein 4x2 Chip, Mit angeblich 4 Fullprescicionpipelines.
Bei der PS Leistung tippe ich eher auf 2....

Währe ich XGI würde ich bei der relativ niedrigen Integration bleiben. Denn wenn sie den Chip wirklich "vollpacken", wird es nichts mit einer DualVersion, welche den eindeutigen Vorteil der geringereren Entwicklungsaufwandes für sich hat. (man muss den Einzelnen chip nicht so extrem entwickeln und das ist bei XGis grösse nicht ganz falsch...so können sie auch öfter mal eine neue Generation bringen).

Wunschdenken.Multichip ist immer unwirtschaftlich.Was 3dfx ja auch bewisen hat.Nur Firmen wie 3D-Labs können mit Multichip bestehen.Aber die haben auch ganz andere Kunden als ATI&nVidia&Co..

Ailuros
2003-10-03, 08:12:23
R3xx wird auch in multichip Versionen im professionellen Simulatoren Markt verkauft.

NVIDIA versorgt auch Quantum3D mit Karten, nur werden in dem Fall mehrere Graphik-boards in ein System eingebaut.

Aber bei diesen Maerkten ist der Preis auch kein Problem.

robbitop
2003-10-03, 09:59:50
Das glaube ich aber nicht. Sonst würde XGI das auch nicht machen. Es mag nicht so wirtschaftlich sein wie Low Cost Karten zu verscheppern, aber mal ehrlich: wer kauft schon die Highnd Karten??? 1% der Käufer?? wenn überhaupt.
Mit denen will man doch nicht die große Kohle machen. Das sind die Vorzeigekarten die das Image der Namensserie hochhalten. Und extra soviel Geld und Zeit und Manpower in die Entwicklung eines Vorzeigemodells zu investieren, gerade bei einem so jung zusammengeschweisseten, vergleichbar kleinen und nicht so "reichem" Team...das währe unwirtschaftlich...besonders für den ersten Chip, den XGI vorstellt. Ich finde das ist der passende Einstieg für eine solche Firma.

Die beiden Chips einzeln sind kaum der Rede wert, aber zusammen lassen sie den Namen Volari ganz anders klingen und sieht so eine Dualkarten nicht toll aus und erregt Aufsehen? das geht bei hochintegrierten Chips nicht mehr und DA währe es unwirtschaftlich...bei kleinen Firmen die nicht den finanziellen Rückhalt, und mehrere Grosse Teams haben, würde ich das Risiko einer Fehlentwickluing/Verspätung enorm minimieren wollen...

just my 2 cents

P.S ich dachte 350Mhz Core sei Final

Ailuros
2003-10-03, 10:45:50
Original geschrieben von robbitop
Das glaube ich aber nicht. Sonst würde XGI das auch nicht machen. Es mag nicht so wirtschaftlich sein wie Low Cost Karten zu verscheppern, aber mal ehrlich: wer kauft schon die Highnd Karten??? 1% der Käufer?? wenn überhaupt.
Mit denen will man doch nicht die große Kohle machen. Das sind die Vorzeigekarten die das Image der Namensserie hochhalten. Und extra soviel Geld und Zeit und Manpower in die Entwicklung eines Vorzeigemodells zu investieren, gerade bei einem so jung zusammengeschweisseten, vergleichbar kleinen und nicht so "reichem" Team...das währe unwirtschaftlich...besonders für den ersten Chip, den XGI vorstellt. Ich finde das ist der passende Einstieg für eine solche Firma.

Die beiden Chips einzeln sind kaum der Rede wert, aber zusammen lassen sie den Namen Volari ganz anders klingen und sieht so eine Dualkarten nicht toll aus und erregt Aufsehen? das geht bei hochintegrierten Chips nicht mehr und DA währe es unwirtschaftlich...bei kleinen Firmen die nicht den finanziellen Rückhalt, und mehrere Grosse Teams haben, würde ich das Risiko einer Fehlentwickluing/Verspätung enorm minimieren wollen...

just my 2 cents

P.S ich dachte 350Mhz Core sei Final

Ich hab immer noch keine Ahnung auf was Du eigentlich hinaus willst.

Uebrigens 1-2% bezieht sich auf das ultra-high end Segment wo sich der Enthusiast fuer 400-500$ den letzten Schrei kauft. Der High end zu Mainstream Markt ist hingegen um einiges umfangreicher, wobei das Prozentual um einiges groesser ist. Eventuell fuer's Jahr 2003: 9700/9800/5800/5900.

Pricewatch momentan:

9700= (=/>218$)
5900= (=/>228$)

http://www.pricewatch.com/1/37/5033-1.htm
http://www.pricewatch.com/1/37/5587-1.htm


Multichip kostet immer mehr, egal ob es sich um HW oder SW Entwicklung handelt. Es gibt bei der Volari Linie nicht nur die duoV8 sondern auch die duoV5. Die letztere wird sich wohl mit RV350 und NV36 schlagen muessen und waehrend die ATI/NV single chip Loesungen leicht und schnell ihren Preis reduzieren werden koennen, ist der Preis von multichip Loesungen um einiges weniger flexibel durch die hohen Herstellungskosten.

Zaehl mal nach wieviel refreshes die jeweiligen Produkte von ATI/NV erhalten haben in diesem Jahr. Glaubst Du allen Ernstes dass multichip Loesungen dieselbe Flexibilitaet garantieren? Wie oft hast Du bis jetzt refreshes von multichip Loesungen gesehen?

Tigerchen
2003-10-03, 11:41:49
Original geschrieben von Ailuros
R3xx wird auch in multichip Versionen im professionellen Simulatoren Markt verkauft.

NVIDIA versorgt auch Quantum3D mit Karten, nur werden in dem Fall mehrere Graphik-boards in ein System eingebaut.

Aber bei diesen Maerkten ist der Preis auch kein Problem.

Eben.Das ist ne andere Welt.

Gaestle
2003-10-03, 16:48:59
Original geschrieben von SKYNET
... und 512-1024MB ram....


Schon für 512MB ist's IMHO zum Zeitpunkt des geplanten Launches wohl noch mindestens ein Jahr zu zeitig... 1024MB wird wohl noch länger dauern.

Grüße

SKYNET
2003-10-03, 17:01:53
Original geschrieben von Gaestle
Schon für 512MB ist's IMHO zum Zeitpunkt des geplanten Launches wohl noch mindestens ein Jahr zu zeitig... 1024MB wird wohl noch länger dauern.

Grüße

512MB werden auf der im noveber erhältlichen DUO V8 ULTRA schon drauf sein :P

Ailuros
2003-10-04, 05:15:14
Original geschrieben von SKYNET
512MB werden auf der im noveber erhältlichen DUO V8 ULTRA schon drauf sein :P

Maximal 256mb ram. Volari unterstuetzt maximal 512mb ram, aber 512mb DDR2@500MHz wuerde das Board suendhaft teuer machen.

Von elitebastards:

http://www.elitebastards.com/dw/xgispecs.png

robbitop
2003-10-04, 13:46:12
Ja der Duale V5 ist eine schwachsinnige Sache. Weil dafür gibts ja den V8 Single.

Ich sage ja nicht das DualChip generell eine zu bevorzugende Strategie ist. Aber wenn ich nur ein kleines so unerfahrenes Team und wenig Geld zur Verfügung hätte, jedoch refreshes noch und nöcher bringen muss, um Schritt zu halten, würde ich das risiko eines hochintegrierten Chips nicht eingehen.
Einen weniger komplexen Chip zu designen und redesignen ist in der Forschung und Entwicklung einfach viel billiger und Riskoloser. Natürlich sind die Produktionskosten um so höher. Aber wer will schon den Dualchip in Massen verkaufen?
Ich würde den V8 Dual als Zugferd für Freaks und Benches verkaufen in High End mässigen Stückzahlen (also nich viele). Und mit V8/V5/V3 single die grosse Kohle machen.
Als Refresh kann man von 350Mhz aus noch viel machen. Ein kleiner Umbau neue Platinen und schon hast du mehr Leistung. Das machst du bis zur nächsten generation. Wenn du etabliert bist, gehst du zu den hochintegrierten Chips. Das geht nur wenn man Geld und Manpower ohne Ende hat.

3dfx hatte ähnliche Pläne, aber da ging einfach zu viel schief. Ausserdem war SLI aus heutiger sicht für die Tonne. Ein vorgezogenes Trisetup und AFR ähnliche Verfahren sind viel besser.

Ailuros
2003-10-05, 03:24:26
robbi,

Aber wenn ich nur ein kleines so unerfahrenes Team und wenig Geld zur Verfügung hätte, jedoch refreshes noch und nöcher bringen muss, um Schritt zu halten, würde ich das risiko eines hochintegrierten Chips nicht eingehen.

Was heisst "unerfahren" in 2003? SiS veroeffentlicht 3D Karten schon seit 1998 und Trident accelerators (nicht 3D) schon seit 1985. XGi hat momentan an die 100 HW und 150 SW engineers. Das Team ist bei weitem nicht klein, ueberhaupt wenn die sich momentan nur auf den PC standalone graphics und Mobile graphics Markt konzentrieren.

XabreII wurde einfach verspaetet und deshalb wurde als "Notloesung" zu multichip gegriffen.

Likewise konnte 3dfx nicht mit NV mit ihrem abgeschlafften Voodoo core weiterhin konkurrieren, deshalb kam der Geistesblitz mehr Speicher und den T-buffer draufzuschnallen und voila schon gab's 300 und 600$ VGAs.

Das geht nur wenn man Geld und Manpower ohne Ende hat.

SiS ist kein kleiner Semikonductor, eher das Gegenteil. Die Behauptungen dass XGi's Ziel ist bis 2005 profitabel und bis 2007 Marktfuehrer zu sein sind kein Zufall, auch nicht die eher aggressive Werbungs/Marketing-Strategie der Volari. Ich stimme trotzdem mit der Politik nicht mit ein, die Margen sind einfach zu schlecht.

Als Refresh kann man von 350Mhz aus noch viel machen. Ein kleiner Umbau neue Platinen und schon hast du mehr Leistung. Das machst du bis zur nächsten generation.

DuoV8 verbraucht eine Unmenge von Strom und deshalb auch die zwei molex connectors auf ersten Praesentations-boards (was keine Garantie ist dass finale boards die auch haben werden), aber hoher Stromverbrauch= hohe Hitze.

3dfx hatte ähnliche Pläne, aber da ging einfach zu viel schief. Ausserdem war SLI aus heutiger sicht für die Tonne. Ein vorgezogenes Trisetup und AFR ähnliche Verfahren sind viel besser.

Muss der Grund sein warum sich ATI selber von AFR distanziert hat :D

Haette Rampage nicht unter unendlichem feature-creep und re-designs gelitten waere es auch faehig gewesen als single chip gegen NV20 voll zu konkurrieren. Dabei war das etwas weiterentwickelte SLI auf Spectre eine bei weitem bessere Idee als AFR.

robbitop
2003-10-05, 10:55:26
ähh ich bin zwar noch nicht sooo studiert in Etechnik aber 2 Stromanschlüsse bringen IMO KEINEN Vorteil.

Ausserdem kann ich mich nur wundern warum ein so schmaler und niedrig getakteter Chip solch eine Abwärme haben soll...muss wohl von Leckströmen durchwachsen sein, hm?

Ailuros
2003-10-05, 19:21:56
Original geschrieben von robbitop
ähh ich bin zwar noch nicht sooo studiert in Etechnik aber 2 Stromanschlüsse bringen IMO KEINEN Vorteil.

Ausserdem kann ich mich nur wundern warum ein so schmaler und niedrig getakteter Chip solch eine Abwärme haben soll...muss wohl von Leckströmen durchwachsen sein, hm?

Wer hat was von einem Vorteil gesagt? Es kann aber ein Anzeigen sein dass hoehere Taktungen eher schwerer als leichter sein werden.

Und uebrigens es muss nicht um jeden Preis was mit Leckstroemen zu tun haben. Angenommen jeder chip hat an die 50M Transistoren, da kannst Du ja selber mal 2x multipliziern was da dabei herauskommt.

For the record die E&S multichip boards mit R300, haben chips mit 275MHz und das Testboard von Sapphire das nicht operativ war durch enorme Abwaerme (zwei R350), hatte drei molex connectors.

robbitop
2003-10-05, 20:06:56
wozu 2 Connectoren, wenn auch einer reicht?? DAS verstehe ich einfach nicht...man kannst aus einem Stecker genausoviel ziehen, wie aus 2en, wenn man nur 1xNT im Rechner hat. Splitten könnte man zur Not auch auf dem PCB selbst.

Bei XG40 spekuliere ich einfach mal auf 60-80Mio Transistoren. Ich weiss nicht, wieviel diesmal an ressourcen intern "geshared" wird...

Demirug
2003-10-05, 20:07:22
Die Molex connectors scheinen für 5 Amper spezifiziert zu sein.

EDIT:

Robitop, mit 2 kannst du die doppelte Leistung ziehen. So ein Kontakt hält auch nicht alles aus und wird bei zuviel Leistung erst weich und schmort dir am Ende weg.

robbitop
2003-10-05, 22:44:13
ok das klingt nachvollziehbar...siehst du so hab ich das ganze noch gar nicht gesehen. Ich hoffe trotzdem, dass es in der Zukunft bei einem Stromanschluss bleiben wird.

StefanV
2003-10-05, 23:11:57
Original geschrieben von Demirug
Die Molex connectors scheinen für 5 Amper spezifiziert zu sein.

EDIT:

Robitop, mit 2 kannst du die doppelte Leistung ziehen. So ein Kontakt hält auch nicht alles aus und wird bei zuviel Leistung erst weich und schmort dir am Ende weg.

1. macht also max. 85Watt Leistung, die man durch EINEN Molex Stecker jagen kann (5x12+5x5 -> 85W)

2. bei 2en sinds also schon 170W ;)

Wenn man jetzt fies ist, dann könnte man ja auch die Leistung, die man über den AGP in die Karte pumpen kann dazu...

Macht summasumarum 127w für eine Karte mit AGP Anschluss und einem Molex Stecker...

Tigerchen
2003-10-06, 08:34:55
Der XGI wird ein Flop werden der sich allenfalls in abgelegenen Tälern am Hindukusch verkaufen läßt.Und selbst da nur für einen Spotpreis.
Daher ist es vollkommen wurscht ob mit einem oder 2 Stromsteckern.Das Ding kauft eh keiner der auch nur ein bißchen Ahnung hat.
:down:

Dunkeltier
2003-10-12, 14:10:13
Original geschrieben von Stefan Payne
1. macht also max. 85Watt Leistung, die man durch EINEN Molex Stecker jagen kann (5x12+5x5 -> 85W)

2. bei 2en sinds also schon 170W ;)

Wenn man jetzt fies ist, dann könnte man ja auch die Leistung, die man über den AGP in die Karte pumpen kann dazu...

Macht summasumarum 127w für eine Karte mit AGP Anschluss und einem Molex Stecker...

Dann passiert mir ja das gleiche wie im Have a nice day Intro. :kratz2: