PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ende der Fahnenstange? Weiterentwicklung der GPUs


svenw
2010-01-05, 09:35:28
Wie wird es mit den Grafikchips weitergehen? Denn langsam erreichen die Chips Größen die den Yield massiv nach unten drücken. Die Frage ist wie es weitergehen kann.

Die Chipgröße wird nicht mehr signifikant sinken, denn der 32er Prozeß dürfte den letzten Sprung für einige Zeit darstellen da man von dem nachfolgenden 18er Prozess eigentlich nur irgendwas von Verschiebungen hört. Bisher hat man ja noch nicht mal eine passende (starke) Lichtquelle. Der Hunger nach Grafikleistung wird aber weiter steigen was in absehbarer Zeit nicht mehr mit den "üblichen Mitteln" sprich mehr Einheiten pro Chip zu lösen sein wird.

Gibt es eigentlich Ideen für eine vernünftiges Multi-Chip Design (abgesehen von den Simpel-Lösungen SLI/Crossfire)?

=Floi=
2010-01-05, 09:41:55
es ist nicht die größe, sondern die komplexität/transistorzahl!

32nm bedeuten chips mit 4,5-5mrd transistoren! das ist eine menge holz. man wird am GT300 sehen wie viel es bringt, wenn man die flaschenhälse aufbohrt und dort dreht wo es wichtig ist um die leistung zu steigern.

svenw
2010-01-05, 09:54:45
32nm bedeutet aber auch, das "Fehler" die ein 40er Chip überlebt einem 32nm Chip killen können. Das Problem wächst mit der Chipgröße.

Knuddelbearli
2010-01-05, 15:16:18
zwischen 32 nm und 18nm wäre doch 22nm ?!? und da bei BULK meistens eh die halb node schritte mitgenutzt werden

Gast
2010-01-05, 15:29:19
Es wird weder von TSMC noch von GF einen 32nm bulk Prozess geben.
Der nächste Schritt ist 28nm. Danach 22nm.
Auf Dauer muss man sich wohl damit abfinden, dass Leistungssteigerungen nur noch im Bereich der Verbesserungen durch den Prozess (mehr Transistoren/Fläche und etwas höherer Takt) bedingt möglich sind.
Neben den Änderungen der Architektur dürfte Das dann der einzige Weg für höhere Performance sein.

Aquaschaf
2010-01-05, 15:31:27
Auf Dauer muss man sich wohl damit abfinden, dass Leistungssteigerungen nur noch im Bereich der Verbesserungen durch den Prozess (mehr Transistoren/Fläche und etwas höherer Takt) bedingt möglich sind.

Hm? Das war doch schon immer so.

Gast
2010-01-05, 15:34:48
Hm? Das war doch schon immer so.
Naja mit dem G80 und dem GT200 hat NV schon ein bisschen mehr als Das geholt indem man den Die um ganze Größenordnungen vergrößert hat.

Pinoccio
2010-01-05, 15:47:25
Ich finde ja auch, daß da endlich mal Schluß sein muss! :mad: Geht ja garnicht, daß die sich imer wieder was neues einfallen lassen, um doch noch wieder in der Entwicklung weiter zu kommen. :P

mfg

Gast
2010-01-05, 15:52:06
Naja mit dem G80 und dem GT200 hat NV schon ein bisschen mehr als Das geholt indem man den Die um ganze Größenordnungen vergrößert hat.
???

Gast
2010-01-05, 15:57:10
Ich finde ja auch, daß da endlich mal Schluß sein muss! :mad: Geht ja garnicht, daß die sich imer wieder was neues einfallen lassen, um doch noch wieder in der Entwicklung weiter zu kommen. :P

mfg
Naja, es wird immer schwieriger und kostspieliger, je näher man an das Limit kommt. Und dann kommen auch wirtschaftliche Grenzen/Rentabilität ins Spiel.
Und irgendwo gibt es in der Natur immer eine Grenze, die nicht überschritten werden kann. Ob das jetzt bei 18 nm ist, sei mal dahingestellt. Aber so flott und problemlos wie "früher" wird das auf keinen Fall mehr voran gehen.

Gast
2010-01-05, 16:00:14
???

Man hat eben von den bisher üblichen ~350 qmm für einen Highendchip auf 500-600 qmm erhöht.
Sowas kann man 1-2mal machen und dann ist es halt schon am Rand des (in Serienproduktion) Sinnvollen.
Wäre Das kein Problem, würde man sicher noch auf 800-1000qm vergrößern.

Gast
2010-01-05, 16:04:44
Naja, es wird immer schwieriger und kostspieliger, je näher man an das Limit kommt. Und dann kommen auch wirtschaftliche Grenzen/Rentabilität ins Spiel.
Und irgendwo gibt es in der Natur immer eine Grenze, die nicht überschritten werden kann. Ob das jetzt bei 18 nm ist, sei mal dahingestellt. Aber so flott und problemlos wie "früher" wird das auf keinen Fall mehr voran gehen.

Aber es gibt auch Menschen die solche Grenzen viel zu schnell herbeireden wollen (warum auch immer).
Vor nicht all zu langer Zeit haben solche Menschen 45nm als unmöglich bezeichnet.
Andere Materialien und 3d Schaltungen werden dort noch das ein oder andere Jahrzehnt noch signifikante Fortschritte bringen.

tombman
2010-01-05, 16:19:32
Man kann sich sicher sein, daß der Überlebenstrieb auch weiterhin dafür sorgen wird, neue Technologien zu entwickeln. Wenn herkömmliche Maschinen eben nicht noch feinere Strukturen herstellen können, dann werden eben neue Maschinen erfunden.
Hauptsache, die Leute kaufen weiter- da arbeiten dann eben Software- und Hardware-Hersteller zusammen, daß die digitale Droge niemals versiegt und immer schön attraktiv bleibt ;)

Gestrandet
2010-01-05, 17:03:26
Irgendwann sind Dinge einfach zu Ende entwickelt, das Rad ist auch schon seit über 5000 Jahren rund. Besser geht's halt nicht.
Bei GPUs / Visual Computing ist aber IMHO noch ordentlich Luft, sowohl was die Fertigung als auch die Software / Algorithmik angeht. Wenn PC-Echtzeitgrafik erst mal auf dem Niveau von "Avatar" angekommen ist, schauen wir weiter ;)

Gast
2010-01-05, 17:08:05
Irgendwann sind Dinge einfach zu Ende entwickelt, das Rad ist auch schon seit über 5000 Jahren rund. Besser geht's halt nicht.
Bei GPUs / Visual Computing ist aber IMHO noch ordentlich Luft, sowohl was die Fertigung als auch die Software / Algorithmik angeht. Wenn PC-Echtzeitgrafik erst mal auf dem Niveau von "Avatar" angekommen ist, schauen wir weiter ;)

Dann wird man nach der Optik der Dann üblichen Offlinerendergrafik streben;)

=Floi=
2010-01-05, 18:48:59
es stehen noch 450mm wafer in der pipeline. bisher hat sich aber noch nicht einmal intel da rangetraut.

wenn die hardwarepreise steigen und/oder die lebensdauer der chips verlängert wird, dann kann man auch problemloser größere chips verwenden. 1000mm² dürfte wohl die moralische grenze darstellen.
zumindest ist man dann auf einem viel höheren leistungsniveau als heute und kann dadurch auch eine stagnation einigermaßen abschwächen. durch optimierte software und spezielle hardware wird man sicherlich auch noch etwas rausholen können.

Gast
2010-01-05, 19:06:15
Dafür sind die 450mm Wafer wieder dicker was einen Teil des möglichen Vorteils aufrisst.

Coda
2010-01-05, 19:29:03
Wieso was spielt das für eine Rolle? Die Kosten für's Silizium sind wohl eher gering.

Gast
2010-01-05, 19:35:33
Ist das so, ich dachte immer hochreines Silizium sei recht teuer.

Gestrandet
2010-01-05, 19:36:38
wenn die hardwarepreise steigen und/oder die lebensdauer der chips verlängert wird, dann kann man auch problemloser größere chips verwenden. 1000mm² dürfte wohl die moralische grenze darstellen.
Also ich persönlich hab überhaupt keine moralische Grenze bei der Chipgröße. Wenn Preis und Leistung stimmen, würd ich mir die Wände damit tapezieren ;)

boxleitnerb
2010-01-05, 19:41:26
Signalwege spielen da wohl auch eine Rolle ;)

Gast
2010-01-05, 19:55:27
Also ich persönlich hab überhaupt keine moralische Grenze bei der Chipgröße. Wenn Preis und Leistung stimmen, würd ich mir die Wände damit tapezieren ;)
Du bräuchtest dann auch keine Fußbodenheizung mehr, aber einen Drehstromanschluss im Spielezimmer. ;)
Möglicherweise auch noch einen Abluftventilator für die Abwärme.

Gast
2010-01-05, 20:08:38
Was für ein Ende soll den in sicht sein?

2009-2010 ATI 40nm (vielleicht auch 32nm RV970 @3200 Shader)

2011 28nm neue Architektur

es geht immer weiter

N0Thing
2010-01-05, 20:34:39
Und selbst wenn man nicht alle 1-2 Jahre auf einen kleineren Fertigungsprozess wechseln kann, vielleicht versuchen sich ATI und Nvidia an neuen Konzepten, die ohne eine Verdoppelung der Transistoren das übliche Plus an mehr Leistung bieten kann.

Gast
2010-01-05, 20:47:16
Und selbst wenn man nicht alle 1-2 Jahre auf einen kleineren Fertigungsprozess wechseln kann, vielleicht versuchen sich ATI und Nvidia an neuen Konzepten, die ohne eine Verdoppelung der Transistoren das übliche Plus an mehr Leistung bieten kann.

Wie soll das gehen?
Nur mit Architektur- und Treiberverbesserung wird Das kaum möglich sein.

N0Thing
2010-01-05, 20:56:30
Wie das gehen soll kann ich dir nicht sagen, aber wenn es bei den Fertigungsprozessen irgendwann keinen Fortschritt mehr gibt, bleibt wohl nicht anderes mehr übrig, wenn ATI und Nvidia nochmal neue Grafikkarten heraus bringen wollen. Ich gehe selber ganz optimistisch davon aus, daß es noch über 28nm hinaus gehen wird, aber irgendwann braucht es eine ganz andere Technik. Und ob die rechtzeitig einen echten Ersatz darstellen kann?

Gast
2010-01-05, 21:20:49
@N0Thing
vielleicht kommt von AMD später eine Quad GPU in 22nm mt 10 facher Leistung aktueller Grafikkarten, wer weis das schon?

Knuddelbearli
2010-01-05, 21:25:58
dazu brauchts keine quad gpu

N0Thing
2010-01-05, 21:32:25
Ich sage ja, daß ich davon ausgehe, daß es auch nach 28nm noch weiter geht, afaik geht Intel davon aus, irgendwann im 16nm Prozess fertigen zu können und vielleicht bekommen das andere Firmen auch noch hin. Aber irgendwann braucht es entweder neue Techniken, andere Materialien, andere Konzepte, oder einen Durchbruch in der bisherigen Fertigung, um noch kleine Strukturen in Silizium herstellen zu können.

Und zu diesem Zeitpunkt, wenn es dann überhaupt noch einen Markt für Grafikkarten gibt, wie wir ihn heute kennen, könnte ein Chipdesign nützlich sein, bei dem pro Transistor mehr Leitung heraus hol als zuvor.

Gast
2010-01-05, 21:40:58
@N0Thing
vielleicht kommt von AMD später eine Quad GPU in 22nm mt 10 facher Leistung aktueller Grafikkarten, wer weis das schon?

Was ist schon der Faktor 10 auf lange Sicht...
Und was meinst du mit Quad?
Vier Chips auf einem PCB?
Da sind wir doch wieder bei der Anfangsfrage ob es sinnvoll ist immer mehr Diespace zu investieren um Steigerung abseits der Strukturverkleinerungen zu erhalten.

Gast
2010-01-05, 21:58:12
ich meinte eine native Qaud GPU, keine 4 Chips auf ein PCB, sondern eine richtige Quad GPU ohne Nachteile.

Gast
2010-01-05, 22:06:29
ich meinte eine native Qaud GPU, keine 4 Chips auf ein PCB, sondern eine richtige Quad GPU ohne Nachteile.

Also ein MCM oder gleich ein Monolith?
An einem MCM wäre die bessere Ausbeute ein Argument (bei ca. 150 qmm pro Modul).
Ein Monolith wäre wieder ein Chip und noch effizienter als (höchstwahrscheinlich) jedes MCM.
Das ist dann wieder das fast Gleiche, was wir bereits jetzt als Highendchips haben.

Dann bleibt noch AFR-Problem, bei dem ich das Gefühl habe, dass kein Hersteller ernsthaft an einer Lösung interessiert ist.

Gast
2010-01-05, 22:09:31
Quad GPU ist Bullshit.

Heutige GPUs sind weitaus paralleler als Quad. Du meinst also statt einen 1600 SP RV870 einen 6400 SP RV870. Ist vierfach so groß.
Früher hätte man das RV1070 genannt, heute Quad GPU, soso.

Gast
2010-01-05, 22:17:33
Quad GPU ist Bullshit.

Heutige GPUs sind weitaus paralleler als Quad. Du meinst also statt einen 1600 SP RV870 einen 6400 SP RV870. Ist vierfach so groß.
Früher hätte man das RV1070 genannt, heute Quad GPU, soso.

Würde das AFR-Problem gelöst und könnte man zwischen Modulen eine sehr schnelle Verbindung implementieren, könnte man durch die Produktion kleinerer Dice die Kosten stark reduzieren.
Wie gesagt wenn...

Gast
2010-01-05, 22:22:06
Könnte man, im begrenzten Rahmen.

Aber der Gast von sschrieb was von "keine 4 Chips auf ein PCB".

Knuddelbearli
2010-01-05, 22:55:37
ich meinte eine native Qaud GPU, keine 4 Chips auf ein PCB, sondern eine richtige Quad GPU ohne Nachteile.


wenn man vom AFR weggehen würde nur weill das den längsten balken produziert ginge das auch heute

Gast
2010-01-06, 15:54:05
hab mich letztens anlässlich einer Übung zur theoretischen Physik mal zu diesen Elektronengasen an bestimmten Grenzschichten (in unserem Beispiel: Lanthan-aluminat, Stronthium-Titanat) informiert, und das klang ganz vielversprechend (der Artikel kann gegoogelt werden, einfach die Materialien eingeben) Es genügen bereits wenige Schichten atomarer Dicke, um damit ein schaltbares Element zu konstruieren. Klar, hier bedarf es, wie immer eigentlich, noch vieler Grundlagenforschung, aber es gab auch einmal eine Zeit, da wurde für die heute verwendete Technik noch Grundlagenforschung betrieben.
Was ich damit sagen will, ist, dass ich hier noch längst kein Ende sehe. Ja vielleicht eine Ende der klassischen Verfahren, aber bestimmt noch keine Ende in Sachen Leistungssteigerung.

Leonidas
2010-01-06, 18:26:55
Sehe ich genauso - ein Ende der Fertigungsverfahren ist noch lange nicht in Sicht.

Eher haben die Grafikchip-Entwickler das Problem, daß Onlive deren Geschäft kommt umkrempeln könnte, *wenn* Onlive funktioniert. Wobei dies wenn dann eher zugunsten noch größerer Chips gehen könnte, denn 1xRV770 ist immer effektiver als 10xRV710.

Gast
2010-01-06, 20:01:32
Wenn sich solche Megarechenzentren durchsetzen werden, wird sicher dort mit anderer Hardware gerendert werden als der heute üblichen Steckkarten.
Man wird wohl kaum mit AFR arbeiten...;)

svenw
2010-01-07, 09:11:17
Die Frage ist doch ob man es nicht auch einfacher bekommen könnte. Ich denke da eher an eine Art Hydra-Chip der von diversen mehreren Graka Chips umgeben ist. Da würde allerdings wohl nicht nur eine Änderung der Graka Hard-/Software anstehen sondern ein umdenken bei der Game-Engine Gestaltung ganz ähnlich dem Multicore Problem heutiger Prozessoren (bzw deren nicht Ausnutzung).

=Floi=
2010-01-07, 09:38:15
man geht ja jetzt schon in richtung spezialisierte einheiten. da schlummert sicherlich noch erhebliches potential. Dadrin sehe ich doch noch eine mögliche geschwindigkeitssteigerung.

man kann auch noch wie beim nvio chip unwichtiges auslagern. Gerade das bietet eine sinnvolle und einfache möglichket transistoren im hauptchip zu sparen.

ich sehe 1000mm² oder eine ähnliche größe schon als eine gewisse grenze und auch als eine größe bei der es langsam sehr unwirtschaftlich wird.

mehrere gpus auf einem package haben zu viele nachteile und zu viel overhead.

N0Thing
2010-01-07, 13:24:39
man geht ja jetzt schon in richtung spezialisierte einheiten. da schlummert sicherlich noch erhebliches potential. Dadrin sehe ich doch noch eine mögliche geschwindigkeitssteigerung.


Ich dachte der Trend geht zu universellen Einheiten, die für viele verschiedene Zwecke herangezogen werden können. Oder betrifft das nur die Shader?

Gast
2010-01-08, 12:09:36
Forschen AMD/Intel eigentlich an den Technologien für die "nach Silizium Zeit" oder überlassen sie das eher Forschungseinrichtungen wie z.b. Universitäten? Fakt is, irgendwann is Schluss mit der Verkleinerung der Si-Transistoren. Man wird auf neue Materialien zurückgreifen müssen sei es Licht, T aus CNT's, oder sonst was, Quantencomputer lass ich mal außen vor da's hier wohl noch etwas länger dauert.

Und ihr redet hier die ganze Zeit über GPU's (klar sie können mit der Zeit immer mehr Aufgaben bewältigen die früher reine CPU Arbeit waren)...aber was is mit den CPU's? Ich frage mich eher wo hier die Reise hingeht. Bei ner GPU Generation (also neuer Chip + Refresh von diesem) steigt die (reelle) Leistung um sagen wir 60-70%. Bei CPU's finde ich die Entwicklung lange nicht so Rasant.

Ich bin gespannt wie AMD/Intel versucht hier noch weiter zu kommen. Ich bin jetzt kein Halbleiterphysiker aber ich meine mal wo gelesen zu haben, dass es bei den GPU's viel "einfacher" ist grundlegende Änderungen an der Architektur vorzunehmen. Bei den CPU's scheint das ja eher schwieriger zu sein. Lange Rede kurzer Sinn. Meint ihr es wäre Sinnvoll wenn die großen X86 "Produzenten" sich mal zusammen setzen und über eine neue effizientere Architektur grübeln? Ich find es "komisch", dass im Prinzip alles auf einer 32 Jahre alten Architektur beruht...klar es kommen immer mal ein paar Befehlssätze oder sonstige Sachen dazu aber wäre es nicht mal Zeit für was grundlegend neues?