PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : S3-Roadmap


up¦²
2006-10-21, 00:48:04
http://img144.imageshack.us/img144/8469/1w3j5lt22286lx4.th.jpg (http://img144.imageshack.us/my.php?image=1w3j5lt22286lx4.jpg)

http://img208.imageshack.us/img208/1299/6d1eqn8m1897nf2.th.jpg (http://img208.imageshack.us/my.php?image=6d1eqn8m1897nf2.jpg)

Große Pläne - viel Erfolg!

Lubi
2006-10-22, 14:47:55
Krass. Hoffentlich dauert es nicht wieder monate länger bis die Chips Marktreif sind!

Es ist immer gut, noch kleinere Player auf dem Markt zu haben.

I am looking forward

Lubi

robbitop@work
2006-10-23, 10:24:00
schön zu sehen, wie nichts-sagend diese Specs sind *gg*

stickedy
2006-10-23, 10:37:32
schön zu sehen, wie nichts-sagend diese Specs sind *gg*
Gut ausgedrückt ;)

Ähm, wo kommen diese Informationen denn orginal her?

Ich finde es erschreckend, dass Q3/2007 als MP-Datum für Destination Films D2 angegeben ist. Das wäre dann ja noch fast ein Jahr... :(

robbitop@work
2006-10-23, 10:50:27
das 128 Bit DDR SI impliziert mal wieder eine billig Variante.

stickedy
2006-10-23, 11:06:57
Hab den Artikel gefunden:
http://diy.yesky.com/vga/244/2628244.shtml
http://translate.google.com/translate?u=http%3A%2F%2Fdiy.yesky.com%2Fvga%2F244%2F2628244.shtml&langpair=zh-CN%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Kann es sein, dass sie sich bei der Grafik vertan haben? Immerhin sprechen sie im Text von einer Markteinführung Anfang nächsten Jahres, das wiederspricht doch irgendwie dem Q3/2007... Es sei denn S3 braucht wieder 9 Monate bis es kaufbare Karten gibt... :usad:

Edit: Da steht was von "Quad-Channel" beim Speicherinterface? Meinst, das bedeudet einfach nur, dass er vierfach unterteilt ist?

HOT
2006-10-23, 11:54:04
das 128 Bit DDR SI impliziert mal wieder eine billig Variante.
Das dauert seine Zeit bis S3 aufschliessen kann. Aber sie holen gut auf finde ich. Sicher, kein HighEnd Produkt dabei, aber nur mit OEM Ware kann S3 weiterkommen und vielleicht doch irgendwann mal oben mitspielen.

Hvoralek
2006-10-23, 12:06:49
Edit: Da steht was von "Quad-Channel" beim Speicherinterface? Meinst, das bedeudet einfach nur, dass er vierfach unterteilt ist?Was sollte es sonst heißen? 4x128 bit? Ein 512- bit- SI wäre natürlich was, aber schau mal weiter nach rechts, wo die Rede von "Quad Channel 512/256 bit" ist? 4x512bit? Wohl eher nicht.

Wäre noch schön, zu wissen, wie die "Execution Units" der XDs aussehen, um mit diesen Angaben zumindest etwas anfangen zu können :rolleyes:

robbitop@work
2006-10-23, 13:31:24
Quadchannel bedeutet IMO einfach nur eine 4x Unterteilung des SI.
Bei DF hätte ich ein 256 Bit DDR SI erwartet.

stickedy
2006-10-23, 16:39:58
Da ich grad an ner Newsmeldung schreibe, ist mir was gravierendes aufgefallen: Yesky.com spricht nur von D2 und D3, der bisher genannte D1 fehlt! D1 wäre stärker als D2 gewesen... Also hat S3 anscheind schon wieder das stärkere Produkt (vgl. DeltaChrome F1, GammaChrome S19) eingestellt :usad: Der hätte dann vielleicht auch ein 256 Bit SI bekommen

up¦²
2006-10-23, 16:57:38
Wollte es auf keinen Fall untergehn lassen, deswegen karge Post:wink:
Wohin die reise geht, läst sich ahnen: multi-GPU => 8+ ;D

StefanV
2006-10-23, 16:58:35
Nur mit 128bit SIs können sie auch gleich das ganze nehmen und wegwerfen, wird eh kaum noch zu was zu gebrauchen sein...

Aber naja, S3 war, seit der Übernahme durch VIA, nie besonders fortschrittlich und auch davor schon etwas rückständig...

Gast
2006-10-23, 21:06:16
OT:

Kam eigentlich nach den Virges noch etwas brauchbares raus? Eher weniger, oder vergesse ich irgendwelche Chips?

Brimborium
2006-10-23, 21:10:16
Die Savage 3D und 4 Pro waren nicht schlecht, wurden aber eher im OEM-Bereich verwendet. Die Savage 2000 war dank defekter T&L-Einheit aber ein echter Reinfall, weshalb sich S3 auch von dem Midrange-Markt zurückzog. :(

robbitop@work
2006-10-24, 11:32:15
Aber naja, S3 war, seit der Übernahme durch VIA, nie besonders fortschrittlich und auch davor schon etwas rückständig...
Mitnichten. Savage2000 war der fortschrittlichste Chip zu seiner Zeit (Ende 1999). Schade, dass einige Bugs ihn so arg sabotiert haben.
Dot3 Mapping, Environment Bump Mapping, TnL ... erst R100 (>1 Jahr später) war technologisch weiter. Von der Geschwindigkeit war das Teil trotz niedriger Taktraten wenn die Treiber nicht bremsten (Q3A/UT) einem NV10 ebenbürtig.

Allerdings sabotiert VIA S3 Graphics IMO enorm. Da fließt anscheinend nichteinmal genug Geld für genug Tapeouts (das verzögert natürlich, da man viel mehr simulieren muss und Bugs können nicht gefixt werden) und mehrere Baureihen, geschweige denn von einer genügend großen Volumenproduktion.
Ich will nicht wissen, wie sehr sie R&D beschneiden.
IMO könnte S3 deutlich mehr...

MikBach
2006-10-24, 12:07:14
Wenn ich mir die Verlustleistung von G80 und R600 ansehe, dann bleibt mir nichts anderes als S3 Viel Glück und Erfolg zu wünschen und zu hoffen, dass S3 sich mit der Verlustleistung ein wenig zurückhält. :)

Gruß M_B

robbitop@work
2006-10-24, 12:11:52
Wenn ich mir die Verlustleistung von G80 und R600 ansehe, dann bleibt mir nichts anderes als S3 Viel Glück und Erfolg zu wünschen und zu hoffen, dass S3 sich mit der Verlustleistung ein wenig zurückhält. :)

Gruß M_B
Musst du jeden Thread mit diesem Müll zuposten?
Recheneinheiten/Rechenleistung kostet nunmal. Wenn weniger Leistungsaufnahme gewünscht ist, muss man mit weniger Leistung vorliebnehmen oder mit weniger Flexibilität. G80 und R600 werden Leistung und Flexibilität bieten. Wenn du bei <100W bleiben möchtest, musst du eben einen Midrangechip kaufen. Oder du wartest auf den nächsten Shrink. S3, PVR und sonstwer würden bei ähnlichen Spezifikationen auch nicht besser dastehen. S3 baut relativ inkomplexe Rasterizer. Daraus folgt, dass diese natürlich auch weniger Leistung aufnehmen.

Linear skallieren kann man hier aufgrund der Vielschichtigkeit des Problemes sowieso nicht mehr. Da greift wie immer das Problem des sinkenden Grenzertrages.

MikBach
2006-10-24, 12:42:31
Musst du jeden Thread mit diesem Müll zuposten?
Recheneinheiten/Rechenleistung kostet nunmal. Wenn weniger Leistungsaufnahme gewünscht ist, muss man mit weniger Leistung vorliebnehmen oder mit weniger Flexibilität. G80 und R600 werden Leistung und Flexibilität bieten. Wenn du bei <100W bleiben möchtest, musst du eben einen Midrangechip kaufen. Oder du wartest auf den nächsten Shrink. S3, PVR und sonstwer würden bei ähnlichen Spezifikationen auch nicht besser dastehen. S3 baut relativ inkomplexe Rasterizer. Daraus folgt, dass diese natürlich auch weniger Leistung aufnehmen.

Linear skallieren kann man hier aufgrund der Vielschichtigkeit des Problemes sowieso nicht mehr. Da greift wie immer das Problem des sinkenden Grenzertrages.
Was hat dich denn gebissen? :|

Vergleiche mal die Leistung von einem P4 und einem CoreDuo, dann weisst du, welche Entwicklung ich mir wünsche.

Trotzdem Gruß M_B

Gast
2006-10-24, 12:46:39
Vergleiche mal die Leistung von einem P4 und einem CoreDuo, dann weisst du, welche Entwicklung ich mir wünsche.6800 Ultra -> 7800GTX/256?

Das kann man aber auch nicht ewig so weitertreiben, von daher hat Robbitop schon Recht.

Gast
2006-10-24, 12:47:07
Mitnichten. Savage2000 war der fortschrittlichste Chip zu seiner Zeit (Ende 1999). Schade, dass einige Bugs ihn so arg sabotiert haben.
Dot3 Mapping, Environment Bump Mapping, TnL ... erst R100 (>1 Jahr später) war technologisch weiter.


Man kann einen Chip nur an seinen verfügbaren Funktionen messen und nicht daran, was er gekonnt hätte, wenn das nicht irgendwelche Bugs gewesen wären. Die Bugs zeigen ja nur, dass der Chip viel zu früh auf den Markt geworfen wurde. Ein halbes Jahr mehr Entwicklungszeit und der Chip hätte gut werden können.


Von der Geschwindigkeit war das Teil trotz niedriger Taktraten wenn die Treiber nicht bremsten (Q3A/UT) einem NV10 ebenbürtig.


Nie und nimmer. Q3A und UT sind die einzigen Ausnahmen, bei denen der Savage2000 mit einem NV10 fast mithalten konnte.

MikBach
2006-10-24, 12:49:54
Das kann man aber auch nicht ewig so weitertreiben, von daher hat Robbitop schon Recht.
Womit?

PS Mittagspause. :)

stickedy
2006-10-24, 13:01:31
Um es gleich anzumerken: Das Thema ist hier die Roadmap von S3 Graphics!
Die Verlustleistung von gegenwärtigen oder zukünftigen ATI- und NVIDIA-Chips ist hier ziemlich OffTopic. Klärt das in den anderen Threads oder in einem neuen, aber nicht hier.

JaDz
2006-10-24, 13:14:02
Von der Geschwindigkeit war das Teil trotz niedriger Taktraten wenn die Treiber nicht bremsten (Q3A/UT) einem NV10 ebenbürtig.

Nie und nimmer. Q3A und UT sind die einzigen Ausnahmen, bei denen der Savage2000 mit einem NV10 fast mithalten konnte.

Ähm... ihr sagt doch aber beide in etwa das gleiche.;)

stickedy
2006-10-24, 13:19:11
Das hab ich mir vorhin auch schon gedacht... :)

Tja, Savage2000 hätte ein guter Chip werden können. Aber die Zeit hat gefehlt um ihn richtig fertig zu bekommen bzw. aureichend zu testen.
S3 bzw. SonicBlue stand damals im Grafikmarkt mit dem Rücken zu Wand und haben alles auf eine Akrte gesezt um S2000 vor der GeForce256 fertig zu bekommen. Das ist halt danaben gegangen, der Rest ist Geschichte und ja eigentlich hinreichend bekannt...

Gast
2006-10-24, 13:31:54
Was hat dich denn gebissen? :|
Tut mir leid. (mir ging es auf den Geist, dass du es nicht bei einem solchen Post belassen hast, sondern gleich mehrere Threads damit behelligen musstest)


Vergleiche mal die Leistung von einem P4 und einem CoreDuo, dann weisst du, welche Entwicklung ich mir wünsche.

Die wünschen wir uns alle. Aber GPUs sind mit CPUs überhaupt nicht vergleichbar. Bei GPUs haben wir eine verdammt hohe Auslastung aller Logiktransistoren. Und da wir viele SIMD ALUs haben, sind das auch verdammt viele. Leistung und Features kosten Transistoren, da ist kaum Spielraum. Und damit auch Leistungsaufnahme.
Beim P4 hatten wir eine schlechte Auslastung der Logiktransistoren und dafür enorm viele davon. C2D hat die Leistungsdichte erhöt und die Fläche verringert. Bei GPUs geht das heute kaum noch, da wir uns dort bereits an einer Grenze sehr hoher Auslastung/Leistungsdichte befinden.
So einfach, wie man sich das vieleicht vorstellen könnte, ist das nicht.



Man kann einen Chip nur an seinen verfügbaren Funktionen messen und nicht daran, was er gekonnt hätte, wenn das nicht irgendwelche Bugs gewesen wären. Die Bugs zeigen ja nur, dass der Chip viel zu früh auf den Markt geworfen wurde. Ein halbes Jahr mehr Entwicklungszeit und der Chip hätte gut werden können.
Das lag unter anderem am Mangelnden R&D. Fakt ist, es ist im Design eingeflossen und an Trivialitäten gescheitert. S3 Graphics war dadurch nicht weniger fortschrittlich. Es war eine verdammt fortschrittliche Architektur beweist dies.


Nie und nimmer. Q3A und UT sind die einzigen Ausnahmen, bei denen der Savage2000 mit einem NV10 fast mithalten konnte.
Tja das lag schlichtweg am miserablen D3D Treiber. Q3A und UT nutzten den OGL Treiber und konnten das Potenzial des S2Ks auslasten. Mit einem besseren Treiberteam für D3D wäre dies auch dort der Fall gewesen.
In 32 Bit wurde NV10 in UT/Q3A sogar besiegt.
Wenn das Teil mit geplanten Taktraten gekommen wäre und man bessere Treiberprogrammierer gehabt hätte, wäre S2k mehr als nur eine gute Konkurrenz gewesen.

Long story short:
-Die Architektur war fortschrittlich
-Der Chip selbst war trotz Bugs schnell
-Der Chip hätte mit Zieltakt (der nur wegen Weich-ei Yields heruntergeschraubt wurde) noch besser performt.
-Die Treiber waren mies

S3 war fortschrittlich. Nur fehlte es ihnen etwas an R&D.

Gast
2006-10-24, 21:18:53
Vergleiche mal die Leistung von einem P4 und einem CoreDuo, dann weisst du, welche Entwicklung ich mir wünsche.



dann schau dir die entwicklung von NV30->NV40->G70(1) an, da hast du was du willst.

dass die leistungsaufnahme zumindest kurzfristig wieder steigen wird ist, wenn die neue fertigungstechnologie noch nicht bereit ist, ist eigentlich logisch.

aber du kannst ja gerne auf den refresh warte, dieser wird mit neuer fertigungstechnologie wohl die von dir gewünschte entwicklung zeigen.

Crazy_Borg
2006-10-28, 22:39:18
S3 war fortschrittlich. Nur fehlte es ihnen etwas an R&D.

Tut es wohl immer noch...
Derzeit sind die aktuellen Windows XP (32bit) Treiber wieder mal über 2 Monate alt...
Dafür kam heute mal wieder ein neuer Vista Treiber für die PCIe Reihe raus.
Toll, da hat ja auch jeder was davon, S3! :mad:

Auch ich besaß damals einen Savage 2000 (und davor sogar noch eine Savage 3D!).
Schöne Karte. Aber die miesen Treiber machten die guten Ansätze zunichte.
Im ganzen (Verkaufs-)Leben des S2k kamen nur 3 oder 4 Treiberversionen raus. Sehr mager.
Selbst damalige Blockbuster liefen nicht richtig (populär: die weißen Schatten bei NFS: Porsche!). Da hat S3 ziemlich geschlampt.

Ich hoffe ihre zukünftigen Chips werden weniger buggy sein.
Nach dem Savage 2000 war der DeltaChrome S8 war ja auch ein verbugtes Stück Hardware, die später vereinzelt auftauchenden (buggefixten) S4 Karten waren trotz geringerer Taktraten teilweise deutlich schneller...

robbitop@away
2006-10-29, 01:16:10
nfs porsche lag am etwas ungenauen W-Buffer statt des Z-Buffers.

stickedy
2006-10-29, 02:30:34
Auch ich besaß damals einen Savage 2000 (und davor sogar noch eine Savage 3D!).
Schöne Karte. Aber die miesen Treiber machten die guten Ansätze zunichte.
Im ganzen (Verkaufs-)Leben des S2k kamen nur 3 oder 4 Treiberversionen raus. Sehr mager.
Naja, das kannst du S3 nicht wirklich ankreiden. Immerhin wurde die Sparte ein paar Monate nach dem Release des S2000 abgespalten und zu VIA tranferiert. Dabei sind auch ein paar gute Leute gegangen und die Ausrichtung hat sich dann erst mal auf IGPs verschoben. VIA hat ja die IGPs dringend gebraucht, das hatte dann halt absolute Priorität. Irgendwann später (2001 oder 2002?) kam dann ja sogar nochmal ein neuer Treiber. So viele S2000 wurden ja auch nicht verkauft, dass man da großartig kaum vorhandenen Ressourcen drauf verschwenden konnte.


Ich hoffe ihre zukünftigen Chips werden weniger buggy sein.
Nach dem Savage 2000 war der DeltaChrome S8 war ja auch ein verbugtes Stück Hardware, die später vereinzelt auftauchenden (buggefixten) S4 Karten waren trotz geringerer Taktraten teilweise deutlich schneller...Was aber beim S4 <-> S8 vor allem auch daran liegt, dass die Verteilung der Renderlast auf die zwei Quads beim DC S8 nicht wirklich vernünftig funktioniert. Da gibts dann öfters irgendwelche Probleme und der Chip dreht Däumchen. Da S4 nur eine Quad gibts da das Problem nicht. Auch ein Grund, warum S3 nach dem DC S8 nur noch Chips mit einer Quad (4x1) gebaut hat... Das ham sie net in den Griff bekommen beim Columbia-Design.

robbitop@work
2006-10-31, 10:00:20
Auch ein Grund, warum S3 nach dem DC S8 nur noch Chips mit einer Quad (4x1) gebaut hat... Das ham sie net in den Griff bekommen beim Columbia-Design.
Ich bin mir dessen inzwischen nicht mehr ganz soo sicher.

Achja: der S4 kam nur in Ausnahmen mal an den S8 heran. Das könnte am möglicherweise gefixtem Alphablending liegen. Dazu müsste man das mal untersuchen. Der S8 konnte seine Füllrate mangels Bandbreite sowieso nur sehr sehr selten auf die Straße bringen (UT03).

Sanvain
2006-11-23, 16:38:19
Der Inq hat mal wieder etwas in die Welt gesetzt von den kommenden DX10 Chips von S3. Was dran ist weis ich nicht, aber hier der Link.

http://uk.theinquirer.net/?article=35932

Heimatloser
2006-11-27, 21:48:00
Die Überschrift alleine ist schon mal wieder eine Klasse für sich:

S3 roadmap reveals DX10 and 10.1 chips

Multicore GPUs clocked to stratospheric levels


Da müßen wir wohl gleich einen Thread ala "Was wird nun aus Nvidia und Ati - wie soll es weitergehen" aufmachen. :biggrin:

Typisches Inquirer geschmiere. :rolleyes:

DerHeimatlose

up¦²
2006-12-05, 17:59:27
Allerlei S3 info ...
http://translate.google.com/translate?u=http%3A%2F%2Fwww.it.com.cn%2Ff%2Fdiy%2F0612%2F3%2F357525.htm&langpair=zh-CN%7Cen&hl=en&ie=UTF8

stickedy
2006-12-05, 20:15:52
Naja, das interessanteste an dem Artikel ist, dass auf der Chrome S25 GPU trotzdem Chrome S27 aufgedruckt ist und der Chip offensichtlich aus Taiwan stammt. Die älteren stammen aus Japan und sind bei Fujitsu gefertigt. Da Fujitsu keine Fabs in Taiwan hat, kommen jetzt eigentlich nur TSMC oder UMC als Produzenten in Frage. Wobei man sich dann fragen muss, ob Fujitsu die Produktion ausgelagert hat oder ob S3 den Partner gewechselt hat...

Ailuros
2007-01-04, 10:28:04
Geht jetzt bitte wieder nicht auf den Botschafter los, aber ich will ernsthaft bezweifeln dass S3 ihre projezierten Release-Daten einhalten werden kann fuer jegliches D3D10.

robbitop
2007-01-04, 10:30:38
Dem stimme ich zu.
Die sollten lieber mal an aktuellen Chrome-Treibern arbeiten. Seit August kam nichts neues. Ok Spiele laufen per se soziemlich alle fehlerfrei. Jedoch funktioniert MultiChrome so gut wie nie richtig und das AA ist immernoch weit unter seinen Möglichkeiten.

Ailuros
2007-01-04, 10:38:43
Dem stimme ich zu.
Die sollten lieber mal an aktuellen Chrome-Treibern arbeiten. Seit August kam nichts neues. Ok Spiele laufen per se soziemlich alle fehlerfrei. Jedoch funktioniert MultiChrome so gut wie nie richtig und das AA ist immernoch weit unter seinen Möglichkeiten.

Sie haben ernsthafte HW Probleme nachdem was sich herumspricht fuer die D3D10 GPUs.

HOT
2007-01-04, 11:48:29
Wenn ich das richtig in Erinnerung habe, wollen auch AMD/ATI und NV auf viele kleine Cores setzen bei der nächsten Generation, also weg von den Superchips wie dem G80 oder R600. Das wäre die Chance für S3G aufzuholen. Ich denke, die neuen D3D10 GPUs 07 erscheinen spät oder garnicht und wenn dann sind sie entry-Segment. Die werden alle verfügbaren Kapazitäten in die übernächste Generation stecken.

Ailuros
2007-01-04, 12:07:24
Wenn ich das richtig in Erinnerung habe, wollen auch AMD/ATI und NV auf viele kleine Cores setzen bei der nächsten Generation, also weg von den Superchips wie dem G80 oder R600.

Es sind schon quasi "8 kleine cores" auf G80...

Das wäre die Chance für S3G aufzuholen. Ich denke, die neuen D3D10 GPUs 07 erscheinen spät oder garnicht und wenn dann sind sie entry-Segment. Die werden alle verfügbaren Kapazitäten in die übernächste Generation stecken.

Selbst bei zeitiger Veroeffentlichung deutet die roadmap auf der ersten Seite nicht mehr als entry-level an.

robbitop
2007-01-04, 12:47:30
Ich kann mir vorstellen, dass man in Zukunft wie beim VSA-100 nur noch 1 oder 2 verschiedene GPUs entwickelt und mit der Skallierung dieser alle Märkte bedienen könnte. Das sparte enorm R&D (das käme gerade S3G zugute). Dazu müßten die aber alle auf ein Package, damit diese untereinander mit einem sehr sehr breiten Interface über eine Art X-Bar verbunden werden. So könnten GPUs ohne Verschwendung irgendwelcher Ressourcen zusammenarbeiten und aufenander zugreifen.
Vieleicht kommt das ja ab R700 schon auf uns zu (sowas wurde ja mal angedeutet). Vieleicht aber auch nicht.

Ailuros
2007-01-04, 18:17:22
Ich kann mir vorstellen, dass man in Zukunft wie beim VSA-100 nur noch 1 oder 2 verschiedene GPUs entwickelt und mit der Skallierung dieser alle Märkte bedienen könnte. Das sparte enorm R&D (das käme gerade S3G zugute). Dazu müßten die aber alle auf ein Package, damit diese untereinander mit einem sehr sehr breiten Interface über eine Art X-Bar verbunden werden. So könnten GPUs ohne Verschwendung irgendwelcher Ressourcen zusammenarbeiten und aufenander zugreifen.

Da ich nichts von S3 auf der roadmap sehe dass irgendetwas ausserhalb von entry-level vorschlaegt, hab ich es verdammt schwer zu verstehen warum von allen Aspekten ein 8-chip Dingsbums eine bessere Loesung sein sollte als ein einziger chip mit 8 clusters.

Plus dass bis jetzt fast keiner eine 100% Leistungssteigerung durch AFR und co. erreichen konnte. Schon gar nicht S3 die wie Du ja selber sagst mit Multichrome zu wuenschen uebrig laesst.

Vieleicht kommt das ja ab R700 schon auf uns zu (sowas wurde ja mal angedeutet). Vieleicht aber auch nicht.

Erlaube mir bei diesem Thema enorme Vorbehaltungen zu haben.

robbitop
2007-01-05, 11:03:34
Da ich nichts von S3 auf der roadmap sehe dass irgendetwas ausserhalb von entry-level vorschlaegt, hab ich es verdammt schwer zu verstehen warum von allen Aspekten ein 8-chip Dingsbums eine bessere Loesung sein sollte als ein einziger chip mit 8 clusters.
Ich spreche nicht von einer besseren Leistung. Das Problem ist, dass es viel Geld kostet für alle Märkte jeweils eine GPU zu entwickeln (auch wenn das Design noch so skalierbar ist) und diese unterschiedlichen GPUs auch noch zum Tapeout zu bringen und zu produzieren. Das ist der Grund, warum S3 derzeit nur eine GPU fertigt und über die Taktung und MultiChrome versucht, 3 Märkte zu bedienen.
Ein GPU Clustering wäre hier eine Lösung des Problems


Plus dass bis jetzt fast keiner eine 100% Leistungssteigerung durch AFR und co. erreichen konnte. Schon gar nicht S3 die wie Du ja selber sagst mit Multichrome zu wuenschen uebrig laesst.
Ich spreche nicht von SLI/CF/MultiChrome. Ich spreche von richtigem Clustering. Das heißt, dass über einen Crossbar jeder Chip auf die anderen Fullspeed zugreifen können (das würde allerdings einen Bus im 3 stelligen GByte/s Bereich benötigen, also müssten die GPUs auf einem Packageliegen).
Somit verhielten sich die GPUs zusammen wie eine einzelne. Erforderlich ist dazu, dass die gegenseitig auf die Caches und den VRAM der anderen Chips zugreifen können. Wenn die Verbindung kein Flaschenhals wird, würde das eine lineare Skalierung ergeben.

Ich bin mir, was dieses Thema angeht, weder sicher, dass es kommen wird, noch dass es nicht kommen wird.



Erlaube mir bei diesem Thema enorme Vorbehaltungen zu haben.
Die habe ich selbst auch, glaub mir...die habe ich selbst auch. Ich sage ja nur, dass es möglich wäre und bereits ein paar Indizien seitens S3 und ATI in diese Richtung zeigen.

Ailuros
2007-01-06, 11:21:57
Ich spreche nicht von SLI/CF/MultiChrome. Ich spreche von richtigem Clustering. Das heißt, dass über einen Crossbar jeder Chip auf die anderen Fullspeed zugreifen können (das würde allerdings einen Bus im 3 stelligen GByte/s Bereich benötigen, also müssten die GPUs auf einem Packageliegen).
Somit verhielten sich die GPUs zusammen wie eine einzelne. Erforderlich ist dazu, dass die gegenseitig auf die Caches und den VRAM der anderen Chips zugreifen können. Wenn die Verbindung kein Flaschenhals wird, würde das eine lineare Skalierung ergeben.

Schoen und gut aber wir haben ja schon 8 clusters bzw. 6 ROP/Mem partitions auf G80 die beliebig nach unten oder oben skaliert werden koennen. Und ich benutze es auch nur als Beispiel weil eben der G80 so flexibel aussieht was die Skalierung betrifft.

Ich hab es schwer mir vorzustellen dass man irgend etwas am Ende spart was die Unkosten (ueberhaupt fuer R&D) zwischen der einen und der anderen Loesung, da man auch eine ebenfalls optimale Verbindung entwickeln muesste.

Die habe ich selbst auch, glaub mir...die habe ich selbst auch. Ich sage ja nur, dass es möglich wäre und bereits ein paar Indizien seitens S3 und ATI in diese Richtung zeigen.

Nachdem ich sah dass G80 doch ein USC ist und R600 einen 512bit bus hat, schliesse ich gar nichts mehr aus. Wie dem auch sei ich sehe NVIO auf G80; in der Richtung koennte ich leichter akzeptieren dass zukuenftige Loesungen mehrere spezialisierte zusaetliche chips haben koennten, als dass man nur einfachere und mehrere cores zusammenschmelzt. GPUs sind keine CPUs; bei den letzteren macht so was natuerlich absolut Sinn denn Frequenz koennen die CPU Hersteller nicht endlos skalieren. Eine GPU braucht wie bekannt keine so extravaganten Frequenzen und ist um Lichtjahre besser wenn es zu multi-threading kommt.

Rein hypothetische (Schnapps-idee-) Frage: was klingt wahrscheinlicher fuer die Zukunft und NV...die ROP partitions zu trennen in einem separaten chip oder diese noch mehr nach "oben" einzuschmelzen?

HOT
2007-01-06, 11:49:37
Gerüchten zufolge wollen sich die Hersteller solche Monster-GPUs, also Cluster auf einem Chip, demnächst sparen und nurnoch einen Cluster-Chip für alles produzieren, der dann x-mal auf einem PCB oder Träger verlötet wird. Genau darum ging es mir auch. AMD will diesen Weg offenbar wählen und das wäre die Chance für S3, auch ohne KnowHow mit diesen Riesenchips, den Markt aufzurollen. Bis dahin gibt es eben nur Low-End, das ist absolut verständlich.
Geafikchips der Grösse des G80 werden unrentabel und haben eine zu grosse Vorlaufzeit für den Markt, darum geht es. Die Entwicklung des Chips allein ließe sich sicherlich durch Clustering der Chips verkürzen.