PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV35 Multichip???


egdusp
2003-02-08, 18:33:26
Absolute reine Überspekulation, aber laut Gamestar (nicht online) soll der NV35 ein Multichipdesign werden (auch Karte, nicht nur fähig, mit schöner Fotomontage). Keine Quellen werden gennant (wie üblich).

Ich halte diese Spekualtion für höchst unwahrscheinlich, wundere mich aber woher sie kommt. Irgenwelche Ideen?

mfg
egdusp

Hui!
2003-02-08, 18:48:17
Hier wurde ja schon öfter diskutiert wie unsinnig ein Multichip Design wäre und man müsste schon total Schwachsinnig sein wenn man glaubt das nVidia mitten in der NV30 Serie ein komplettes Redesign macht.
Da wollte nur mal wieder einer Parallelen zu 3dfx finden wo keine sind, oder die haben irgendeine Meldung aufgeschnappt wo es um Professionelle Karten ging, wo halt mehrere Chips auf ein PCB draufgebastelt werden.

aths
2003-02-08, 18:51:21
Originally posted by egdusp
Irgenwelche Ideen?Idee: Wieder mal so ein Schwachsinns-Gerücht, was einfach nicht totzukriegen ist. Schon beim NV30 wurde deswegen spekuliert.

Ich persönlich bin ja Multichip-Anhänger aus Tradition, glaube aber nicht, dass nV das für irgendein NV3x-Design auch nur beim Café mal ernsthaft diskutiert hat.

Endorphine
2003-02-08, 18:55:12
Ganz abwegig sind Multichip-Karten mit GPUs von nVidia nicht. Sie sind bereits Realität :)

NVIDIA Quadro NVS 400 (PCI)

http://www.leadtek.com.tw/workstation_graphic/quadro4_400_nvs_2.jpg

Demirug
2003-02-08, 19:01:15
jaja immer diese Multichip Gerüchte. Einfach nicht tot zu bekommen :D

Wer immer noch glaubt das es sowas nochmal im Consumerbereich gibt soll sich mal die aktuellen Forschungen zu dem Thema Multichiplösungen bei Grafikchips anschauen. Dort erkennt man sehr schnell das der Aufwand in keinem Verhältnis zu dem zu erwartenden Gewinn steht.

Demirug
2003-02-08, 19:04:11
Originally posted by Endorphine
Ganz abwegig sind Multichip-Karten mit GPUs von nVidia nicht. Sie sind bereits Realität :)

NVIDIA Quadro NVS 400 (PCI)

http://www.leadtek.com.tw/workstation_graphic/quadro4_400_nvs_2.jpg

So eine Karte habe ich gerade für ein Projekt bei unserem Systemhaus angefragt. War zwar eine PNY ansonsten aber gleich.

StefanV
2003-02-08, 20:47:04
Originally posted by Endorphine
Ganz abwegig sind Multichip-Karten mit GPUs von nVidia nicht. Sie sind bereits Realität :)

NVIDIA Quadro NVS 400 (PCI)

http://www.leadtek.com.tw/workstation_graphic/quadro4_400_nvs_2.jpg]

Sowas ist nicht wirklich was besonderes...

MAn kann soviele Chips auf ein Board löten, wie man will, eiine Bridge vorrausgesetzt.

Nur ist die Frage, ob alle Chips ein Bild rendern kann oder ob alle Chips je ein Bild rendern können...

Demirug
2003-02-08, 20:54:45
Originally posted by Stefan Payne


Sowas ist nicht wirklich was besonderes...

MAn kann soviele Chips auf ein Board löten, wie man will, eiine Bridge vorrausgesetzt.

Nur ist die Frage, ob alle Chips ein Bild rendern kann oder ob alle Chips je ein Bild rendern können...

Stefan, das Teil rendert überhaupt kein Bild :D

Das sind reine 2D Chips auf der Karte. Und jeder Chip verwaltet 2 Monitorausgänge.

Ansonsten hast du natürlich recht.

StefanV
2003-02-08, 21:19:31
Originally posted by Demirug


Stefan, das Teil rendert überhaupt kein Bild :D

Das sind reine 2D Chips auf der Karte. Und jeder Chip verwaltet 2 Monitorausgänge.


???
Warum dann keine G400/G450 MMS ??

StefanV
2003-02-08, 21:23:43
Hier mal ein Foto der (kleineren) G450 MMS *eg*:

http://www.sdlnz.co.nz/products/images/ma_g450mms_box_board.jpg

Demirug
2003-02-08, 21:38:29
Originally posted by Stefan Payne


???
Warum dann keine G400/G450 MMS ??

Weil die NVIDIA Lösung günstiger ist.

HiddenGhost
2003-02-08, 22:25:06
A pros pos Multichip? Wie viel Multichip ist mit aktuellen GPUs eigentlich möglich? (Radeon, FX, etc. z.B für Simulatoren oder Militär ???)

Demirug
2003-02-08, 22:36:39
ATI meint das man bis zu 256 R300 zusammenschalten kann. Dabei erhöht sich aber nur die Pixelleistung und das leider auch nicht linear.

Der NV30 scheint nicht wirklich auf Multichip Lösungen ausgelegt zu sein. Bei NVIDIA schwört man wohl eher auf die Syncronisation von mehreren Karten.

Mehrpack
2003-02-09, 02:45:22
hi,
mal ne frage, da ja die chips immer grösser werden bei der transistor anzahl und auch schneller wäre es da zum teil nicht sinnvoller einige funktionen eines grafikchips in einige externe einheiten auszulagern??

Mehrpack

Ailuros
2003-02-09, 02:54:26
Originally posted by Mehrpack
hi,
mal ne frage, da ja die chips immer grösser werden bei der transistor anzahl und auch schneller wäre es da zum teil nicht sinnvoller einige funktionen eines grafikchips in einige externe einheiten auszulagern??

Mehrpack

Obwohl es so gut wie unmoeglich ist: wuerden Graphik-IHV's in den Prozessoren Markt einsteigen, koennten sie eventuell den ganzen Shader-Wirrwarr auf eine CPU schieben. Platz fuer mehr Transistoren waere da ja theoretisch schon.

Wieso sollen externe Einheiten schneller sein als "integrierte"?

Hauwech
2003-02-09, 04:34:22
Neee, er meint das die Chips generell groesser und schneller werden. Irgendwann wenn du bei sagen wir mal 300Mio Transis angekommen bist duerfte die Ausbeute nicht mehr so toll sein, die Wahrscheinlichkeit eines oder mehrerer kaputter Transistoren ist einfach zu hoch. Von daher lieber, oder eher notgedrungen, Multichip um noch vernuenftige Yields zu erzielen (naja, nicht richtig Multichip aber halt mehrere kleine 'Funktionseinheiten' (zB. TnL) so das du statt, sagen wir mal 40% mit einem Riesenchip eher 80-90% Ausbeute an kleineren Chips hast). Sowas wie 3dfx halt machen wollte (wenn ich nicht verkehrt liege).

Frage an unsere Chipbauer: Ist es technisch unmoeglich oder verdammt schwierig/teuer mehrere kleine Funktionsbloecke zu basteln und die nachher auf einen Traeger zu 'verbinden'??? So aehnlich wie ein Puzzle. Bei einem VS-Array halt, zB 4 'Bloecke' a 16 Zellen (40 Mio. Transis jeweils) zu einem 64 Zellenblock (dementsprechend 160 Mio. Transis) zusammenzuschalten. Ist halt nur mal ein Beispiel, von mir aus auch um auf 300Mio. Transis insgesamt mit der restlichen Chiplogik zu kommen.

[ncp]EasyChiller
2003-02-09, 04:48:36
ich vermute mal ganz stark, das der Mehrpreis für ein PCB für solche Multichip-Design's mehr reinhaut, als durch ne höhere Chip-ausbeute gutzumachen ist! ... schließlich wollen die chips unterander mit nicht geringer Bandbreite kommunizieren - d.h. viele Leitungen mit recht hohem Takt .... verdammt TEUER! Dagegen is nen 256-bit-Ram-Interface auf ner Karte wohl eher noch nen Kinderspiel! ;D

Ailuros
2003-02-09, 05:05:56
Dabei werden auch wiederum Prozesse kleiner mit der Zeit.

Ja FP arrays wird der naechste "Schrei" sein, irgendwann werden sogar PS und VS hoechstwahrscheinlich vereint und chips der naechsten Generationen werden eher in Richtung Effizienz erstmal basteln bis sie zu doppelten der von heutigen high end Spezifikationen kommen.

Woher kommt eigentlich die 300M Transistoren Anzahl und fuer welche Generation?

Entweder hab ich mich verlesen oder die VS array Einheit die Du beschreibst, sieht so aehnlich aus wie die auf dem P10 oder?

http://www.beyond3d.com/articles/p10tech/vertexprocessor.gif

Sowas wie 3dfx halt machen wollte (wenn ich nicht verkehrt liege).

Spectre = (1 oder 2) rampage + sage = dx8.0
Fear = fusion + sageII = dx8.1
Mojo = dx9.0

Mojo hatte den TnL chip zum ersten Mal "integriert", laut Plaenen natuerlich. Wobei aber nur Spectre mit dual chip gekommen waere. Nachfolger waeren TBDR's gewesen und ausschliesslich single chip.

Dual chip Spectre (0.15um uebrigens) haette insgesamt ~80M Transistoren gehabt und haette mit 128MB 200MHz DDR an die 500$ damals gekostet.

betasilie
2003-02-09, 07:34:42
Jaaa

Demirug
2003-02-09, 10:27:50
Hauwech, bei den Vorlesungen zum Thema Digitaltechnik und digitaler Schaltungsbau (oder wie auch immer die entsprechende UNI den Kurs nennt) gibt es in der Regel auch immer eine Vorlesung zum Thema "Desginanalyse unter Betrachtung der Kostensituation". Dort wirft der Prof dann mit vielen formeln um sich welche die Auswirkungen des Desgin auf die Endkosten darstellen. Das Credo dieses ganzen Vortrags ist:

Setzten sie so wenig Bausteile wie nur möglich ein.

Hauwech
2003-02-09, 14:05:30
@Demirug
Ja, die Profs haben ja auch alle Recht, kein Zweifel. War ja nur ein Beispiel von mir wie GPUs in 3 oder 5 Jahren aussehen koennten. :)Ganz einfach deswegen, da es schon heute zB beim R300 mit *nur* 107 Mio. Transistoren, obwohl 150nm schon recht gut ausgereift ist, es anscheinened doch noch eine recht hohe Anzahl von leicht defekten Chips gibt. Ich meine nur das je mehr Transis, desto hoeher die Wahrscheinlichkeit das es defekte Transis gibt. Das die Kosten fuer sowas exorbitant hoch sein wuerden habe ich erstmal ausser acht gelassen. Es ging mir rein um die technische Seite, ob es halt technisch ueberhaupt moeglich ist. Man wird ja wohl noch traeumen duerfen. :)
Prinzipiell ist es einfach ein Puzzle von Funktionseinheiten die auf dem finalen Chip zusammengefuehrt werden so dass es wirklich nur ein Chip bleibt, KEIN MCM wo einzelne 'komplette' Chips durch schnelle Busse auf einem Modul miteinander verbunden werden!

@Ailuros
Ja, wie der P10, ganz recht. Und mit dem Spectre hast du auch recht. Ausgelagerte Funktionseinheiten, eben. Das sowas teuer ist, ist klar. :)
Natuerlich werden die Prozesse mit der Zeit kleiner, nur es werden ja immer mehr Transistoren verbaut so dass die DIE-Groesse trotzdem steigt.
Die 300Mio. Transistoren waren nur als willkuerliches Beispiel gedacht. Es war einfach nur zur Veranschaulichung gedacht wieviel Transis eine GPU in 3 oder 5 Jahren haben *koennte*. Die FX hat ja schon doppelt soviele Transis wie die GF4Ti. Ich habe einfach mal wild in die Zukunft spekuliert mit 300 Mio. Transis. Koennen auch nur 150 oder 180Mio sein. :)

@EasyChiller
Kein MCM, sondern *ein* Chip auf dem unabhaengig voneinander 'produzierte' Funktionsbloecke zusammengefuehrt werden. Puzzle like. Das Speicherinterface bzw das PCB bleibt so gesehen 'einfach' zu produzieren (aehnlich wie R300 :))

Demirug
2003-02-09, 14:33:48
Hauwech, ich sage ja nicht das die Profs alle immer recht habe. Aber die Formeln und die Begründungen dazu sind logisch fundiert.

Chip Defekte entstehen aus zwei Gründen. Fehler im Process oder Fehler im Rohmaterial.

Fehler im Process folgende einer Zeitlichen Kurven. Am Anfang eines neues Process gibt es sehr viele Fehler die im Laufe der Zeit immer weniger werden bis der Process durch einen neuen ersetzt wird. Dabei fällt die Fehlerquote am Anfang sehr schnell und am ende immer langsamer.

Fehler im Rohmaterial (Wafer) werden im Laufe der Zeit auch immer weniger. Die Entwicklung verläuft hier aber bei weitem nicht so berechenbar. Die Fehlerquote bei den Wafer wird in Fehler pro Wafer angeben. Jeder DIE der auf einen solchen Fehler zu liegen kommt ist mit hoher Wahrscheinlichkeit defekt.

So betrachtet ist es natürlich erst mal verlockend die Funktionalität eines Chips auf mehrer DIE zu verteilen. Denn bei einem kleineren DIE ist die Gefahr das er in einen defekten Bereich des Wafer fällt geringer.

Bei zum Beispiel 10 Fehler pro Wafer und 100 Chip hat man 10% ausschus
bei 200 Chips währen es nur noch 5%.

Nun darf man natürlich nicht einfach hingehen und davon ausgehen das man die durch Spliten von Funktionen die doppelte Anzahl von DIEs auf einen Wafer bekommt. Denn man braucht ja auf beiden Chips syncronisationslogik. Aber selbst dann hätte man immer noch eine durchaus bessere Ausbeute als bei einem grossen DIE. Jetzt kommt aber das Problem das die nebenkosten bei einer Multichip lösung ebenfalls steigen. Man hat mehrfach die Grundkosten für das Packing. Die Gesamtzahl der Pins steigt. Die Fläche auf der Platine nimmt zu. Es gibt mehrer Stellen auf der Platine die gekühlt werden müssen usw.

Wenn wir also wirklich mal wieder Multichip Lösungen sehen werden dann nur weil der Process es nicht mehr erlaubt den entsprechenden Chip am Stück herzustellen. Beim wechsel auf 0.9 dürfte sích die Anzahl der verbaubaren transitoren wieder verdoppeln. Und nach 0.9 wird man wieder was besseres finden.

Hauwech
2003-02-09, 15:16:37
Originally posted by Demirug
Nun darf man natürlich nicht einfach hingehen und davon ausgehen das man die durch Spliten von Funktionen die doppelte Anzahl von DIEs auf einen Wafer bekommt. Denn man braucht ja auf beiden Chips syncronisationslogik. Aber selbst dann hätte man immer noch eine durchaus bessere Ausbeute als bei einem grossen DIE. Jetzt kommt aber das Problem das die nebenkosten bei einer Multichip lösung ebenfalls steigen. Man hat mehrfach die Grundkosten für das Packing. Die Gesamtzahl der Pins steigt. Die Fläche auf der Platine nimmt zu. Es gibt mehrer Stellen auf der Platine die gekühlt werden müssen usw.

Wenn wir also wirklich mal wieder Multichip Lösungen sehen werden dann nur weil der Process es nicht mehr erlaubt den entsprechenden Chip am Stück herzustellen. Beim wechsel auf 0.9 dürfte sích die Anzahl der verbaubaren transitoren wieder verdoppeln. Und nach 0.9 wird man wieder was besseres finden.

Hmm habe mich glaube nicht klar genug ausgedrueckt, versuche es nochmal :)
Wenn ich dich richtig verstanden habe sprichst du von Multichip-Loesungen. Die meine ich aber nicht. Nix was in den Bereich von zB Rage Fury MAXX oder Spectre geht wo wirklich 2 komplette Chips verbaut wurden.
Ich meine sowas aehnliches wie den Power4 von IBM (vielleicht ist Multicore der passendere Ausdruck) Es ist so gesehen nur ein Modul das aber mehrere komplette Chips auf einem Traeger vereinigt.
Mein Ansatz ist aber etwas anders als der Power4. Mein Ansatz geht in die Richtung das ich einzelne Funktionsbloecke (VS-Array, PS-Array, Speicherinterface und und und) ganz am Ende zu einem grossen Chip 'verschmelze'.
Wie ein komplettes Puzzle das auch nur ein Bild auf einem Traeger bildet, nicht wie der Power4 der aus mehreren kompletten Puzzles ein grosses Bild auf einem Traeger ergibt.

Hoffe es ist jetzt klarer was ich meine :).
Es geht mir erstmal nur um die Frage ob so etwas wie ich es mir vorstelle ueberhaupt technisch machbar ist. Ob es kostenmaessig ueberhaupt Sinn macht moechte ich erstmal aussen vor lassen.

Demirug
2003-02-09, 15:27:56
Originally posted by Hauwech


Hmm habe mich glaube nicht klar genug ausgedrueckt, versuche es nochmal :)
Wenn ich dich richtig verstanden habe sprichst du von Multichip-Loesungen. Die meine ich aber nicht. Nix was in den Bereich von zB Rage Fury MAXX oder Spectre geht wo wirklich 2 komplette Chips verbaut wurden.
Ich meine sowas aehnliches wie den Power4 von IBM (vielleicht ist Multicore der passendere Ausdruck) Es ist so gesehen nur ein Modul das aber mehrere komplette Chips auf einem Traeger vereinigt.
Mein Ansatz ist aber etwas anders als der Power4. Mein Ansatz geht in die Richtung das ich einzelne Funktionsbloecke (VS-Array, PS-Array, Speicherinterface und und und) ganz am Ende zu einem grossen Chip 'verschmelze'.
Wie ein komplettes Puzzle das auch nur ein Bild auf einem Traeger bildet, nicht wie der Power4 der aus mehreren kompletten Puzzles ein grosses Bild auf einem Traeger ergibt.

Hoffe es ist jetzt klarer was ich meine :).
Es geht mir erstmal nur um die Frage ob so etwas wie ich es mir vorstelle ueberhaupt technisch machbar ist. Ob es kostenmaessig ueberhaupt Sinn macht moechte ich erstmal aussen vor lassen.

Ahhhh jetzt ist klar was du meinst.

Die Idee ist sicherlich nicht schlecht. Intel hat mal sowas in der Art bei den PPro Chips gemacht. Die CPU und der Cache wurden getrennt produziert und dann zusammen in einem Chip vergossen. Also machbar wäre das durchaus. Beim moderen Flipchip Verfahren hat das zwar bisher AFAIK noch niemand gemacht aber vorstellbar ist es sicherlich.

Ailuros
2003-02-09, 16:26:44
Also wird hier eine Art programmierbarer Co-Prozessor auf dem gleichen "die" gemeint, wenn ich das richtig verstanden habe, oder? Um es mal ganz vereinfacht darzustellen: "getrennt" aber doch "integriert"?

Ich hatte zwar verstanden das Hauwech nicht mehr als einen rasterizer pro board meint, aber ich hatte auch den Eindruck dass er einen komplett getrennten Geometrie Prozessor/chip meint.

Demirug
2003-02-09, 16:44:17
Originally posted by Ailuros
Also wird hier eine Art programmierbarer Co-Prozessor auf dem gleichen "die" gemeint, wenn ich das richtig verstanden habe, oder? Um es mal ganz vereinfacht darzustellen: "getrennt" aber doch "integriert"?

Ich hatte zwar verstanden das Hauwech nicht mehr als einen rasterizer pro board meint, aber ich hatte auch den Eindruck dass er einen komplett getrennten Geometrie Prozessor/chip meint.

Also wenn ich das ganze richtig verstanden habe meinte er das man die einzelnen Teile eines Chips (VS, PS, +++) zwar auf getrennten hergestellt werden sollen. Aber alle DIEs zusammen in einem Chip zusammengefügt werden. Nach aussen würde also wieterhin nur ein Chip auf der Grafikkarte sitzen.

Ailuros
2003-02-09, 16:47:23
Dann hab ich das wenigstens richtig verstanden. ;D

Solche Loesungen stehen schon unter Forschung wenn nicht schon Entwicklung fuer die etwas weitere Zukunft.

Hauwech
2003-02-09, 17:24:21
Irgendwo einen Link wo man etwas genaueres darueber erfaehrt? :)

Xmas
2003-02-10, 01:22:13
Originally posted by Demirug
Stefan, das Teil rendert überhaupt kein Bild :D

Das sind reine 2D Chips auf der Karte. Und jeder Chip verwaltet 2 Monitorausgänge.

Ansonsten hast du natürlich recht.
Das sind zwei ganz normale GeForce4MX-Chips (bzw. NV17GL). 3D können sie also durchaus, aber eben nicht zusammen an einem Bild arbeiten.

Leonidas
2003-02-10, 02:57:30
Originally posted by egdusp
Absolute reine Überspekulation, aber laut Gamestar (nicht online) soll der NV35 ein Multichipdesign werden (auch Karte, nicht nur fähig, mit schöner Fotomontage).


Nein. Der Chip ist Multichip-fähig - wie schon die GeForce1. Aus diese Fakt die Schlußfolgerung zu ziehen, NV35 würde als Multichip auf den Markt kommen, ist einfach nur falsch gedacht. Gerade weil nVidia jetzt den NV35 vorzieht, lohnt eine Multi-Variante nicht. Dies würde nur für die FX lohnen, um die Performance-Krone eindeutig zu erringen - aber wer will diese Karten dann bezahlen?

Ailuros
2003-02-10, 03:02:48
Originally posted by Hauwech
Irgendwo einen Link wo man etwas genaueres darueber erfaehrt? :)

Bis jetzt noch nicht was Implementationen wie Du sie meinst betrifft, soweit ich weiss.

Leonidas
2003-02-10, 03:04:00
Die Sache mit dem MultiProzessoring (nicht bei NV35, in weiter Zukunft) aus der Not heraus, weil bei den zukünftigen Transistoren-Monstern die Ausschussquote zu stark steigt, hört sich interessant an. Allerdings: 100 Mill. Transistoren hören sich für uns viel an, allerdings gibt es auch schon Server-Chips mit mehreren hundert Millionen Transistoren. Insofern scheint es wohl machbar zu sein, selbst solche Silizium-Monster zu backen.

Mehrpack
2003-02-10, 04:10:35
hi,
ja aber bei den serverprozessoren entfallen die meisten tranistoren auf die cache-stufen, jedenfalls bei den Xeon prozessoren.
bloss ich kenn mich jetzt aber net so genau im server-cpu markt aus um eine sehr genaue aussage treffen zu können wie die verteilung cache zu funktionseinheiten bei den anderen zu treffen, ich wollte es anmerken das es so einfach nicht zu sehn ist.
denn bei cache kann man einfach mehr cache drauf backen der dann den prozetuallen verlust an cache durch die defekten transistoren ausgleicht.

Mehrpack