PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gibt es sowas wie Netzwerk-CPUs?


IceKillFX57
2008-06-07, 00:24:37
Hallo
Der Thread Name ist wohl nicht so gut gewählt aber nun meine Frage...
Sagen wir mal ich hab ein System mit 2 Kernen und eins mit einem Kern.

Jetzt starte ich Anwendung X und PC 1 mit 2 Kernen fängt an zu arbeiten.
Leider dauert es z.B zu lange oder ruckelt weil die Power nicht ausreicht.
Jetzt aber schalte ich meinen 2. PC an und er hilft dan dem anderen PC beim berechnen.

Sowas ähnliches gibt es bei Render Software wie Maya,Cinema 4D,3DS u.s.w

Nur sowas meine ich Allgemein und nicht speziel für eine Anwendung zugeschnitten.


Meine Frage:
Ist es überhaubt möglich oder wäre es möglich sowas zu machen?

PS: Sry für Fehler.. ist schon spät xD

Hacki_P3D
2008-06-07, 07:32:55
Sowas gibts schon, Stichwort "Distributed Computing", aber nicht im allgemeinen Umfeld.

http://de.wikipedia.org/wiki/Verteiltes_Rechnen

Gast
2008-06-07, 11:57:47
Nur sowas meine ich Allgemein und nicht speziel für eine Anwendung zugeschnitten.


Meine Frage:
Ist es überhaubt möglich oder wäre es möglich sowas zu machen?


allgemein nicht, höchstens im speziellen umfeld. die ganzen SETI@Home bzw. Folding@Home-dinger machen das im prinzip so.

das funktioniert aber wie gesagt nur bei sehr speziellen dingen.

Gast
2008-06-07, 12:02:38
allgemein nicht, höchstens im speziellen umfeld. die ganzen SETI@Home bzw. Folding@Home-dinger machen das im prinzip so.

das funktioniert aber wie gesagt nur bei sehr speziellen dingen.
Weil für eine allgemeine Lösung der Overhead durch Kommunikation, Synchronisation usw. den Performance Vorteil bei weitem auffressen würde...

Monger
2008-06-07, 12:29:46
So ziemlich jedes Server Betriebssystem erlaubt auch das Clustern. Und in einem Cluster werden Prozesse nach Möglichkeit immer dorthin gelagert, wo gerade am meisten Freiraum ist.

Die Technologie an sich ist uralt - spielt halt für den Otto Normal Verbraucher so gut wie keine Rolle.

AnarchX
2008-06-07, 12:39:54
Die Technologie an sich ist uralt - spielt halt für den Otto Normal Verbraucher so gut wie keine Rolle.
Noch nicht, aber immer schneller werdende Netzwerk/Internet-Verbindungen verbunden mit dem Boom von MIDs, Nettops, Thinclients machen die Auslagerung von rechenintensiven Ausgaben auf den eigenen Home-Server bzw. kostenpflichtige Großrechnerdienste doch interessant.

ESAD
2008-06-07, 13:39:09
aber was willst du genau darauf machen? filme berechnen? rendern? das geht schon heute

aber für dinge für welche die eeepcs dieser welt ausgelegt sind ala office und surfen braucht man die leistung nicht wirklich, und ein auslagern möglich zu machen wäre ein viel zu hoher softwareaufwand nötig(ganz davon zu schweigen das man mit mobilen internet noch lange nicht soweit ist wie das marketing sagt, es hat seinen grund das hochlleistungscluster mit infiniband gekoppelt sind, aber vielleicht einmal in 5-6 jahren wer weiß)

AnarchX
2008-06-07, 14:08:22
Wie wäre es z.B. mit einem State-of-Art-3D-Game, was auf den schwachen Nettop, der einen vernünftigen VP verbaut hat, in den ~1024x640@30FPS gestreamt wird. Die Latenzen zur Eingabeübermittlung ist ja mittlerweile durch HSUPA bei 70ms angelangt und wird mit LTE unter 50ms kommen.
;)

Ansonsten sehe ich dann weitere Ansätze im Bezug auf Personal-Data-Mining (z.B. Photos nach den darauf vorhanden Objekten durchsuchen) und künstlicher Intelligenz, welche besser auf einem deutlich schneller angebunden Rechenzentrum laufen sollte, als auf dem mobilen Begleiter, über welchen sie nur mit dem User kommunizieren sollte.

Halt etwas Zukunftsmusik, deshalb auch das "noch nicht".

ESAD
2008-06-07, 14:21:19
dieses ich streame mir ein 3d game kommt auch jedes jahr wieder....

und das andere geht doch heute auch schon lange alles... und wen ich immer höre künstliche intelligenz was soll diese tolle ki denn machen? wir bekommen nichtmal ein für den menschen natürliches interface zum pc zusammen aber dann mit irgendwelchen künstlichen intelligenz zeug kommen die uns in der zukunft allen das leben erleichtert (ist jetzt nicht gegen dich aber ich hab das den letzten monat 3 mal gehört)

Gast
2008-06-07, 14:36:37
Wie wäre es z.B. mit einem State-of-Art-3D-Game, was auf den schwachen Nettop, der einen vernünftigen VP verbaut hat, in den ~1024x640@30FPS gestreamt wird. Die Latenzen zur Eingabeübermittlung ist ja mittlerweile durch HSUPA bei 70ms angelangt und wird mit LTE unter 50ms kommen.


es ist aber ein großer unterschied, ob ein 3d-game auf einem entfernten computer berechnet wird, oder ob mehrere computer an einem solchen rechnen.

IceKillFX57
2008-06-07, 16:49:07
hmm jo allso sagen wirs mal so.. z.B hab ich ein Notebook das z.B eine viel zu schwache CPU hat. aber die Anwendung oder Game ist nur für das Notebook Lizensiert oder so und darf nur darauf ausgeführt werden.

Jetzt soll mein Desktop meinem Notebook etwas auf die Sprünge helfen da er ihm beim berechnen Hilft.. egal ob Applikation oder Game.

Aquaschaf
2008-06-07, 17:13:48
Jetzt soll mein Desktop meinem Notebook etwas auf die Sprünge helfen da er ihm beim berechnen Hilft.. egal ob Applikation oder Game.

Nein, allgemein geht das nicht. Dafür müssten Anwendungen, Betriebssystem, Verbindungen zwischen PCs und deren Hardwarearchitektur alle anders aussehen.

IceKillFX57
2008-06-07, 17:22:17
Nein, allgemein geht das nicht. Dafür müssten Anwendungen, Betriebssystem, Verbindungen zwischen PCs und deren Hardwarearchitektur alle anders aussehen.

aber möglich wäre es Theoretisch oder?

Gast
2008-06-07, 17:27:29
aber möglich wäre es Theoretisch oder?

Mensch liest du die Posts auch?

JA,natürlich wäre es "theoretisch" möglich, ABER wer realisiert das?

Du?

Mensch, wenns so einfach wäre...

Aquaschaf
2008-06-07, 17:37:48
aber möglich wäre es Theoretisch oder?

Die Idee ist alt. Es gab schon Systeme bei denen Arbeitsplätze quasi eine Tastatur mit Monitor waren und die Rechenarbeit fast ausschließlich an einer anderen Stelle erledigt wurde. Aber das ein Rechner in einer interaktiven Anwendung bei Bedarf und unterstützend eingreift ist harmlos ausgedrückt ein sehr komplexes Problem.

Gast
2008-06-07, 18:14:03
aber möglich wäre es Theoretisch oder?

es ist praktisch unmöglich.

z3ck3
2008-06-08, 21:18:09
Nicht ganz das Thema, aber LTSP (Linux Terminal Server Projekt) ist was ganz interessantes. habe es selebr schon ausprobiert. Irgenwo eine Potente Maschine hinstellen (Keller oder sonstwo) und mit min 100 Mbit anbinden. Dann brauchst du nur noch einen "PC" mit einer kleinen OCU (z.b. schon P3 500), 64 oder 128 MB ram, und eine Netzwerkkarte mit Bootrom. Am besten auch eine Grafikkarte die den Desktop auch beschleunigen kann (FX5200 sollte z.b. reichen). Der PC fühlt sich dann an wie als wenn du an dem Server selber sitzen würdest. Sehr geile Sache. Zocken ist allerdings nicht, habe es aber auch noch nicht wirklich getestet.

RavenTS
2008-06-09, 19:22:26
Die Idee ist alt. Es gab schon Systeme bei denen Arbeitsplätze quasi eine Tastatur mit Monitor waren und die Rechenarbeit fast ausschließlich an einer anderen Stelle erledigt wurde. Aber das ein Rechner in einer interaktiven Anwendung bei Bedarf und unterstützend eingreift ist harmlos ausgedrückt ein sehr komplexes Problem.

Das gibts doch immernoch und immermehr: Thin Clients

Prinzipiell kann man vieles netzwerkartig aufbauen, nur muss das Netzwerk natürlich auch schnell genug sein damit auch hinten was brauchbares rauskommt...

Monger
2008-06-12, 12:21:51
hmm jo allso sagen wirs mal so.. z.B hab ich ein Notebook das z.B eine viel zu schwache CPU hat. aber die Anwendung oder Game ist nur für das Notebook Lizensiert oder so und darf nur darauf ausgeführt werden.

Jetzt soll mein Desktop meinem Notebook etwas auf die Sprünge helfen da er ihm beim berechnen Hilft.. egal ob Applikation oder Game.
Neben der brachialen Rechenkraft spielt bei sowas noch etwas ganz anderes eine Rolle: Latenzen.

Und da sieht es bei großen Entfernungen naturgemäß schlecht aus. Die Latenzen hängen in erster Linie am Netzwerk selbst, und Durchbrüche in in der Switching Technologie hat es jetzt auch schon seit 20 Jahren nicht mehr gegeben.


Ursprünglich waren ja Thin Clients das natürlichste der Welt: Firmen hatten in den 70ern nicht etwa PCs rumstehen (die waren ja noch gar nicht erfunden), sondern einen zentralen Monsterrechner, an dem dann alle Terminals dran hingen. Dafür wurde auch mal quer durch Deutschland ein eigenes Kabel gelegt, weil das immer noch billiger war als sich einen eigenen vollwertigen Rechner hinzustellen.

Aquaschaf
2008-06-12, 12:31:48
Das gibts doch immernoch und immermehr: Thin Clients

IMO nicht so ganz. Bei Thin-Clients hat man eine klare Hierarchie zwischen Client und Server. Was hier angedacht ist (mehrere Rechner zu vernetzen die nicht unbedingt klar definierte Rollen haben und dazwischen die Last dynamisch zu verteilen) würde andere Ansätze erfordern. Selbst wenn man von dem Problem der Verbindung zwischen ihnen absieht.

Gnafoo
2008-06-12, 12:44:07
Mit OpenMOSIX geht glaube ich so ziemlich genau das was du meinst (sofern die Anwendung mehrere Threads benutzt). Aber nur unter Linux und wie gut das wirklich (v.a. mit verschiedenen Rechnern) funktioniert weiß ich auch nicht. Allerdings ist das Projekt vor einiger Zeit auf Eis gelegt worden, läuft aber scheinbar als LinuxPMI von anderen Leuten entwickelt weiter.

http://en.wikipedia.org/wiki/OpenMosix
http://linuxpmi.org/trac/

Aquaschaf
2008-06-12, 19:30:43
Das sieht nach etwas aus um lang rechnende Prozesse die nicht viel IPC benötigen woanders laufen zu lassen. Für multithreaded Anwendungen die irgendwie interaktiv sind praktisch nicht geeignet.

haifisch1896
2008-06-12, 21:00:54
Mal ne blöde Frage, die ich aber gar nicht so dumm finde:
Wie willst Du das verbinden, damit es nicht mehr Performance kostet als es bringt?
Infiniband ins Haus legen?
Mit GBit-Ethernet hast Du gerade mal eine Übertragung von rund 80MB/sek. und mit 100MBit noch rund 8MB.
DDR2-800 hat dem gegenüber eine Anbindung von 8.4GB/sek. an den Prozessor.

Kurz gesagt, für den Hausbedarf und Firmen, die keine Cluster haben/brauchen, lohnt sich eher eine Aufrüstung auf 2-Sockel-Systeme oder ein kleiner Rack.

davidzo
2008-06-13, 02:39:56
Ich habe mal mit zwei guten Kumpels vor vier Jahren ein Jugend Forscht Projekt gemacht, da ging es genau darum.

"fat-clients" statt Thin clients. Der Server ist dabei lediglich ein Fielserver bzw. NAS, was deutlich billiger und sparsamer kommt. Die Clients booten per PXE ein Linux mit OpenMosix Unterstützung in eine dynamische Ramdisk. Sind zwar relativ schwach auf der brust gewesen (C3 1Ghz, 1Gb Ram) aber in Multithreaded Anwendungen hatte man optimalerweise insgesamt 20x 1Ghz und 20Gbyte Ram. Das ist dann schon was anderes.
Für den Zweck wie es gedacht war (schulanwendungen, Bildung) war es optimal, da die programme relativ klein waren und daher wenig overhead entstand. OpenMosix hat das mit dem threadverteilen schon sehr gut hinbekommen.
Stromverbrauch war 17-31 Watt für die passiv gekühlten C3 clients und mit rund 600watt hat man also einen gesamten computerraum gelöst, das war im sommer immer am angenehmsten, gegenüber den pc-räumen mit 20 normalen rechnern jedenfals welten.

G-Bit hat übrigens nicht 80mb/s sondern 125MB/s - und die erreicht man in der Regel auch.
Wenn es hier um durchschnittliche desktopanwendungen geht, sind die selten in mehr als einer sekunde von einem zum nächsten client gestreamt.