PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bei 48 Kernen ist Schluss (für Linux, laut MIT)


Tiamat
2010-10-04, 11:47:29
Hi, gerade hab ich was sehr interessantes gelesen.

Das MIT hat Versuche angestellt, in wie weit sich moderne Betriebssysteme skalieren lassen. Am Ende gelangte man zum Schluss, dass oberhalb von 48 Kernen keine Leistungoptimierung mehr stattfinden kann, es sei denn, das ganze System wäre von vornherein auf n Kerne ausgelegt worden.
Das dürfte wohl auf kaum ein heutiges Betriebssystem zutreffen.

http://www.tomshardware.de/linux-multicore,news-244773.html

Gasti
2010-10-04, 11:52:52
Heutige Großrechner laufen doch auch auf Unixdeviraten.
Wie soll man das jetzt verstehen?
Dass man ein von Grund auf neues BS braucht wohl kaum.

universaL
2010-10-04, 11:54:17
bis wir 48 kerne in einem rechner haben, gibt es sicher auch ein passendes betriebssystem. vieleicht die chance das sich doch noch was anderes als windows durchsetzt ;)

Gast
2010-10-04, 11:59:24
Und was ist mit Anwendungen? :ulol:

AnarchX
2010-10-04, 12:00:55
Das ist wohl das Original Paper: http://pdos.csail.mit.edu/papers/linux:osdi10.pdf
Und auf Basis dieses Benchmarks wurde die Aussage getroffen: http://pdos.csail.mit.edu/mosbench/

Fragt sich wie groß der Informationsgewinn für die Realität ist, für den End-User jedenfalls stehen in naher Zukunft Cloud-Computing und die starke Beschleunigung bestimmter Aufgaben durch Many-Core-Computing an erster Stelle. Wo man vorerst keine Probleme mit OS-Skalierbarkeit auf traditionellen CPU-Cores hat.

Tiamat
2010-10-04, 12:33:12
Heutige Großrechner laufen doch auch auf Unixdeviraten.
Wie soll man das jetzt verstehen?
Dass man ein von Grund auf neues BS braucht wohl kaum.

Na ich denk doch mal, dass die Message lautet: Bis 48 Kernen ist die Skalierung mehr oder weniger gut, darüber hinaus ist die Verhältnis der Skalierung schlecht oder kann sich sogar nachteilig auswirken.

Gasti
2010-10-04, 12:37:29
Na ich denk doch mal, dass die Message lautet: Bis 48 Kernen ist die Skalierung mehr oder weniger gut, darüber hinaus ist die Verhältnis der Skalierung schlecht oder kann sich sogar nachteilig auswirken.

Das kommt wohl schwer auf den Einsatzzweck an.
Es besteht ja nach wie vor ein großes Interesse an Großrechnern(auch ohne Virtualisierung) und GPGPU währe bei einer starken Begrenzung auch uninteressant.

(del)
2010-10-04, 12:39:10
Guter Einwurf Avalox. Wer von euch würde seine Daten, welche auch immer, die Cloud in 3s berechnen lassen statt selbst 15min dran zu rechnen?

Welche Fälle genau stellt ihr euch dabei vor? Egal was ihr darüber denkt. Wieviel würdet ihr für sowas bezahlen?
(wäre mal ein Tipp für eine Umfrage)

Für den Benutzer stehen in naher Zukunft erstmal SMT ala Buldozzer und betriebssystembasierte (API) GPU-Berechnungen. Bis das ausgeschöpft ist - also 8 Cores im Taskmanager und aberhunderte Stream-Prozessoren - sehe ich in naher Zukunft keine Cloud daheim auf uns zukommen. Eher bei Smartphones und Browsergames (sic!).

edit @Tiamat
Ich weiß ehrlich gesagt nicht was die Message ist. Einerseits haben wir die Situation, daß die meisten Programmierer sehr erfreut sind endlich auf 2 Kernen merkbare Steigerungen zu erzielen und andererseits man 10fache und höhere Steigerungen mit hunderten GPU-Recheneinheiten erzielt.

Und dann auch noch die Situation, daß wir nun das erste Mal in einer Zeit leben wo die überwiegende Anzahl der Benutzer sehr zufrieden mit der Geschwindigkeit ihres PCs ist und es für mehr als ausreichend hält =) Und, das kommt jetzt auch noch dazu, die meisten Wows mit einer Komponente erreichbar sind, die keine user land Berechnungen anstellt. Mit einer SSD.

Ich finde die Studie aus der theoretisch-technischen Sicht interessant (für paar Minuten), aber aus der praktischen eher langweilig.

Tiamat
2010-10-04, 13:44:30
Ich hab das Dokument mal kurz überflogen. Und es geht im Endeffekt um die Skalierung von Multi-Core Prozessoren mit hoher Nutzung von Kernel-Mode Modulen und Systemcalls, um diese Module zu nutzen.
Dabei hat man viele Kernel-Bestandteile wie TLB, Run-Queue e.t.c betrachten und die Skalierung dieser Bestandteile festgestellt.
Der MosBench nutzt in sehr hohem Maß die Kernel-Services.

Was hierbei nicht berücksichtigt wurde, sind beschleunigte Abläufe durch GPGPU oder Software, die eben wenig Kernel-Services beansprucht.

Aber man hat auch hinzugefügt, dass Bestandteile des Linux Kernel diesbezüglich modernisiert wurden und werden.
__
Debian und Co werden bis zum Auftauchen von 48 Kernen natürlich auch noch n Wörtchen mitzureden haben.

Avalox
2010-10-04, 14:43:58
Wann wird denn mit den 48 Kern CPUs zeitlich gerechnet?

In 5 Jahren?

Gast
2010-10-04, 14:56:05
Bis es monolithische Dies mit 48 vollwertigen general purpose Kernen gibt, gehen wohl noch mehr als 5 Jahre ins Land und das ist bezogen auf Server-CPUs, wie Intels EX-Serie.
Eher könnte es da ein massiveren Sprung geben, wenn man pötzlich anfängt die Stream-Prozessoren mit zu zählen.

Mal ein konkreteres Beispiel:
Für 48 Kerne/24 Module mit L2-Cache eines Bulldozer würde man wohl etwa ~750-800mm2 @ 32nm benötigen und da fehlt noch IO und ein ausreichend großer L3-Cache.
Also vor 15nm kaum wirtschaftlich fertigbar, selbst für das HPC-Segment.
Höchstens eine MCM-Version unter 22nm mit zwei mal 12 Modulen wäre vielleicht denkbar.

Avalox
2010-10-04, 15:09:13
Bis es monolithische Dies mit 48 vollwertigen general purpose Kernen gibt, gehen wohl noch mehr als 5 Jahre ins Land und das ist bezogen auf Server-CPUs, wie Intels EX-Serie.



Ob monolithisch oder nicht spielt ja erstmal keine Rolle.

2005 sind die ersten x86 mit zwei Kernen erschienen, heute kann man die 12 Kern CPU kaufen. 5 Jahre moore's law. Wahrscheinlich wird es nicht mal mehr 5 Jahre dauern bis zur 48Kern CPU und der eingehende Artikel kein Prognose sondern eine konkrete Aufforderung sofort mit der Anpassung von Linux zu beginnen.

Tiamat
2010-10-04, 19:31:23
Also ich schätze, dass das gar net mehr so lange dauern wird. Es reichen ja im Prinzip auch x > 24 CPUs, da moderne Prozessoren ja dem Betriebssystem als zwei Kerne erscheinen. Das könnte 2013 schon der Fall sein.

Also die Aussage war ja genau, nicht weit überhalb 48 Kernen wird wohl der Grenzbereich sein..

Bringt mich zu ner anderen Frage : Ab wann ist bei der Miniaturisierung von Halbleitern Feierabend ?

Gasti
2010-10-04, 19:52:30
Also ich schätze, dass das gar net mehr so lange dauern wird. Es reichen ja im Prinzip auch x > 24 CPUs, da moderne Prozessoren ja dem Betriebssystem als zwei Kerne erscheinen. Das könnte 2013 schon der Fall sein.

Also die Aussage war ja genau, nicht weit überhalb 48 Kernen wird wohl der Grenzbereich sein..

Bringt mich zu ner anderen Frage : Ab wann ist bei der Miniaturisierung von Halbleitern Feierabend ?

Die physische ist wohl so bei ca 1-2nm und die wird wahrscheinlich auch ungefähr erreicht werden.
Aber dann ist ja noch lange nicht Schluss - allein 3D Transistoren werden wieder riesige Steigerungen erlauben.

Demirug
2010-10-04, 19:55:46
Ich bin mal so frei:

Supporting Systems That Have More Than 64 Processors
(http://www.microsoft.com/whdc/system/Sysinternals/MoreThan64proc.mspx)

Tiamat
2010-10-04, 20:56:19
Ok, Microsoft hat sich dem Thema schon angenommen.
Aber bedeutet das nicht, dass da auch bei 64 Kernen Feierabend ist.

Feierabend ist vielleicht der falsche Begriff, Win 7 soll ja mehr verwalten können. Aber durch die Restriktion, dass pro Prozess nur 64 Threads laufen dürfen, heißt doch dass der maximale Scale-Factor pro Prozess 64 ist.

Das bedeutet, dass man zukünftig mehr Prozesse für seine Applikationen benötigt, die dann zu je 64 Threads bearbeitet werden könnten. Das ist eine Lösung klar, aber durch ganze Prozesssynchronistion verpufft doch auch wieder Leistung oder ?

Troll-Account
2010-10-04, 21:20:21
Nur mal eine kleine Frage.
Ist mit 48/64 Kernen wirklich Kerne gemeint oder diese Threads durch SMT?

Tiamat
2010-10-04, 21:39:47
Es sind logische Kerne, die dem Betriebssystem zur Verfügung stehen.
Ob das jetzt n physikalischer 64 Kerner oder n 32 er ist, ist da weniger interessant. Interessant ist das, was dem OS als Ressource zur Verfügung steht.

Troll-Account
2010-10-04, 21:48:43
hmm ok.
Dachte halt das die echten besser skalieren.

Danke.

S940
2010-10-05, 02:48:10
Ok, Microsoft hat sich dem Thema schon angenommen.
Aber bedeutet das nicht, dass da auch bei 64 Kernen Feierabend ist.

Feierabend ist vielleicht der falsche Begriff, Win 7 soll ja mehr verwalten können. Aber durch die Restriktion, dass pro Prozess nur 64 Threads laufen dürfen, heißt doch dass der maximale Scale-Factor pro Prozess 64 ist.

Das bedeutet, dass man zukünftig mehr Prozesse für seine Applikationen benötigt, die dann zu je 64 Threads bearbeitet werden könnten. Das ist eine Lösung klar, aber durch ganze Prozesssynchronistion verpufft doch auch wieder Leistung oder ?
Die forschen auch schon weiter ;-)

Hier werden die betreffenden Codenamen genannt:
(http://www.networkworld.com/community/node/30569)Midori (http://www.networkworld.com/community/node/30569), Singularity (http://www.networkworld.com/community/node/25938), Barrelfish (http://www.barrelfish.org/)
http://www.networkworld.com/community/node/45615
Für den Thread hier sollte letzteres das Interessanteste sein.

Palpatin
2010-10-06, 12:53:57
48 Kerne in einem Rechner geht schon heute, man braucht nur gscheits Mainboard http://www.tyan.com/product_SKU_spec.aspx?ProductType=MB&pid=670&SKU=600000180 ;D

RavenTS
2010-10-09, 13:18:15
Der Server-Markt mit dem Drift zum Cloud Computing wird wohl auch deutlich eher Verwendung dafür finden. Beim Homeuser quellt die Rechenleistung doch jetzt schon fast über...

Gast
2010-10-09, 13:22:12
48 core ist keine zukunft^^

http://www.google.de/products/catalog?q=hp+proliant+dl585+g7+4x&hl=de&cid=8872886633026737479&ei=oU-wTLOHHIbc2gTE86WrCQ&sa=title&ved=0CAcQ8wIwADgA&os=tech-specs

Gast
2010-10-09, 15:56:49
und was sagen die großrechner mit >100k cpus dazu?

Gast
2010-10-09, 17:25:26
es geht um non cluster systeme.