PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : quantenphysik - derzeitige rechenleistung reicht nicht aus?


ROXY
2009-05-14, 20:58:23
hallo

habe auf paar quantenphysik seiten gelesen das für manche formeln/berechnungen die derzeitige rechenleistung nicht langt.

warum gibts denn da keine art seti für? :D

ps.: oder meinen die schon die globale rechenleistung?

btw: in zern reicht die lokale rechenleistung auch nicht aus um alle teilchen beim crash zu erfassen... die können nur paar 0,000x% ermitteln.
deswegen gibt es eine vorgeschaltete IQ software die bestimmt welche "teilchen" registriert errechnet werden und welche nicht - anhand der flugbahn wird das "irgendwie" ermittelt.

aufjedenfall ist in der wissenschaft noch immer alles zu langsaaaam - dies mich ehrlich gesagt wundert bei der heutigen cpu / gpu power. :D

zern könnte doch eine art seti projekt starten - dieses higgs teilchen werden sie bei der jetzigen % ausbeute an daten wohl nie finden.

Gast
2009-05-14, 23:01:19
wie willst du etwas analysieren lassen - etwa wie seti - wenn man es nicht erfassen kann?

nomadhunter
2009-05-14, 23:14:59
zern könnte doch eine art seti projekt starten
Das ganze Distributed-Computing ist doch eher was für kleine und mittlere Wissenschaftsprojekte, die kein Geld für Rechenleistung haben und sich mit der Rechenleistung Freiwilliger zufrieden geben müssen. Eigentlich ist das viel umständlicher und ineffizienter als ein Supercomputer, der darauf ausgelegt ist, so viel Leistung wie möglich pro € zu erzielen. Bis die ganzen CERN-Daten von irgendwelchen Freiwilligen ausgewertet sind, schreiben wir wahrscheinlich 2020...

Gnafoo
2009-05-14, 23:35:19
Davon abgesehen gibt es durchaus auch entsprechende Bestrebungen. Siehe z. B. LHC@home (übrigens über den BOINC-Client, den auch seti@home verwendet). Nur passiert dort im Moment nicht besonders viel ("Up, Out of work"), weil der LHC noch nicht läuft und es geht eher darum, herauszufinden ob sich so etwas überhaupt lohnt.

http://lhcathome.cern.ch/athome/index.shtml


However, there are exceptions where volunteer computing makes sense for the LHC. In particular, volunteer computing is good for tasks which need a lot of computing power but relatively little data transfer. In 2004, CERN's IT Department became interested in evaluating the sort of technology that is used by volunteer computing projects like SETI@home. LHC@home became the overall title for these efforts, and a program called SixTrack, which simulates particles traveling around the LHC to study the stability of their orbits, became the first application to be tested. It was chosen because it can fit on a single PC and requires relatively little input or output, but a lot of processing power.


Man kann das einfach nicht mit einem Supercomputer vergleichen. Die Kommunikation zwischen den einzelnen Clients ist einfach zu langsam für die meisten Aufgaben. Schon bei Supercomputern ist die Kommunikation ein Problem.

ESAD
2009-05-14, 23:59:25
hallo

habe auf paar quantenphysik seiten gelesen das für manche formeln/berechnungen die derzeitige rechenleistung nicht langt.

warum gibts denn da keine art seti für? :D

ps.: oder meinen die schon die globale rechenleistung?

btw: in zern reicht die lokale rechenleistung auch nicht aus um alle teilchen beim crash zu erfassen... die können nur paar 0,000x% ermitteln.
deswegen gibt es eine vorgeschaltete IQ software die bestimmt welche "teilchen" registriert errechnet werden und welche nicht - anhand der flugbahn wird das "irgendwie" ermittelt.

aufjedenfall ist in der wissenschaft noch immer alles zu langsaaaam - dies mich ehrlich gesagt wundert bei der heutigen cpu / gpu power. :D

zern könnte doch eine art seti projekt starten - dieses higgs teilchen werden sie bei der jetzigen % ausbeute an daten wohl nie finden.

man filtert dort ja auch nicht munter drauf los und schnippelt irgendwo irgendwie daten zurecht. da wird schon mit system und viel hintergrundwissen rangegangen. des weiteren sind die par bruchteile an daten die wirklich gespeichert werden schon von gigantischer größe

roidal
2009-05-15, 09:15:56
Ich denke eher das im zern die Detektoren nicht alle Daten erfassen können. Bei zu wenig Rechenleistung (was auch der Fall ist) speichern sie die Daten irgendwo ab und berechnen das ganze auf einem größeren Zeitraum verteilt.

Monger
2009-05-15, 09:38:05
In der Algorithmentheorie (siehe O-Kalkül) unterscheidet man zwischen Problemen die grundsätzlich lösbar sind, Problemen die nur in speziellen Fällen lösbar sind, und Problemen die grundsätzlich nicht lösbar sind.

Es gibt für alles davon reale Beispiele. Routenplanung z.B. ist ein Problem, was nur unter sehr speziellen Annahmen in absehbarer Zeit berechenbar ist. Zu diesen Annahmen gehört z.B. , dass man die Reihenfolge der Stationen angibt, und dass es nicht allzu viele sind. Wenn du wahllos ein paar hundert Punkte in Deutschland markieren würdest, und den Rechner nach der idealen Route zwischen allen Punkten fragen würdest, würdest du höchstwahrscheinlich selbst einen Großrechner zur Verzweiflung treiben, zumindest wenn du eine exakte Antwort willst.

Deshalb: manche Probleme wären selbst mit verteiltem Rechnen nicht in den Griff zu kriegen. Programme wie Seti@Home oder Folding@Home sind sehr gut parallelisierbar. Jede Aufgabe ist für sich gesehen in absehbarer Zeit berechenbar. Es gibt aber Felder der Mathematik, die sich mit purer Rechenkraft nicht lösen lassen. Da hilft dann auch keine Parallelisierung.

Gast
2009-05-15, 10:35:36
Irgendwo habe ich mal gelesen, das die Datenmenge schon ziemlich gewaltig ist, die da zusammen kommt.

*such*

Gefunden bei Spiegel: http://www.spiegel.de/wissenschaft/mensch/0,1518,577453,00.html

"Wir haben einen Datenstrom von 30 Gigabyte pro Sekunde, der in Echtzeit analysiert und auf ein Gigabyte pro Sekunde reduziert wird", sagt er. Diese Daten würden dann auf Magnetband geschrieben und später analysiert: "Erst dann fängt die eigentliche Physik an." Ohne die Datenreduktion, bei der für die Auswertung voraussichtlich nicht brauchbare Messdaten verworfen werden, sei das Experiment kaum zu beherrschen.


Auuserdem gibt es ja schon sowas wie 'distributed Computing' für das LHC. Das LHC Computing Grid, in dem die Daten zur Speicherung und natürlich auch zur Barbeitung verteilt werden.

Ansonsten hat Monger ja schon gesagt, das man verschiedene Klssen von algorithmischen Problemen kennt und danach unterscheidet.

roidal
2009-05-15, 11:04:33
Um auf deine erste Frage einzugehen: Es gibt eine Hand voll Algorithmen welche sich auf einem Quantencomputer um ein vielfaches schneller ausführen lassen als auf einem klassischem Computer, und von genau diesen ist auf solchen Seiten die Rede. Ein Beispiel wäre da die Primfaktorenzerlegung mit denen sich Verschlüsselungen knacken lassen, weshalb auch die Geheimdienste an der Forschung beteiligt sind.

Gast
2009-05-17, 20:40:13
Um auf deine erste Frage einzugehen: Es gibt eine Hand voll Algorithmen welche sich auf einem Quantencomputer um ein vielfaches schneller ausführen lassen als auf einem klassischem Computer, und von genau diesen ist auf solchen Seiten die Rede. Ein Beispiel wäre da die Primfaktorenzerlegung mit denen sich Verschlüsselungen knacken lassen, weshalb auch die Geheimdienste an der Forschung beteiligt sind.

Also diese ist so schlicht und einfach falsch, korrekt wäre eine Aussage folgender Form: Es gibt bestimmte Probleme bei denen der schnellste bekannte Quantenalgorithmus schneller ist als der schnellste bekannte klassische Algorithmus.

Die zentralen Unterschiede sind, dass der Algorithmus für den Quantencomputer fundamental anders funktioniert als der für den klassischen Computer, deshalb ist es auch recht schwierig Quantenalgorithmen zu bauen, da diese schneller sein sollten als die klassischen (da man jeden klassischen Algorithmus mit polynomiellem Overhead auf einem QC laufen lassen kann).
Auf der anderen Seite ist es wichtig dass man hier das "schnellster bekannter" betont, niemand weis ob man auf einem klassischen Computer Primfaktoren nur in exponentieller Zeit lösen kann oder nicht, es hat bisher nur niemand einen entsprechenden Algorithmus gefunden, das heisst aber noch lange nicht dass er nicht existiert.

ftw
2009-05-17, 20:54:53
"Wir haben einen Datenstrom von 30 Gigabyte pro Sekunde, der in Echtzeit analysiert und auf ein Gigabyte pro Sekunde reduziert wird", sagt er.

Also 30 Gigabyte pro Sekunde schafft meine 4 Jahre alte X800XL auch und mit Triple Channel DDR3-RAM kommt man auch schon beim normalen Arbeitsspeicher auf diese Geschwindigkeit. Zumindest für gewisse Zeitintervalle kann man die vollen 30 Gigabyte pro Sekunde speichern. RAM ist doch zur Zeit ziemlich billig. :D

Coda
2009-05-17, 21:01:16
Also 30 Gigabyte pro Sekunde schafft meine 4 Jahre alte X800XL auch und mit Triple Channel DDR3-RAM kommt man auch schon beim normalen Arbeitsspeicher auf diese Geschwindigkeit. Zumindest für gewisse Zeitintervalle kann man die vollen 30 Gigabyte pro Sekunde speichern. RAM ist doch zur Zeit ziemlich billig. :D
Oh Gott, es geht doch nicht ums Speichern.

Leute redet doch nicht über Zeug von dem ihr keine Ahnung hat. Das gilt auch ganz besonders für den Threadstarter.

ftw
2009-05-18, 02:16:32
@Coda
Kommt da noch was Konstruktives von deiner Seite oder willst du nur ein bißchen flamen?

Ein kleiner Tipp: Ein :D Smiley ist sehr häufig ein Indikator dafür, dass ein Beitrag nicht ganz ernst gemeint ist.

Coda
2009-05-18, 02:57:14
Was will man denn bei der völlig unkonstruktiven Themenvorlage konstruktives posten?

Die Antwort ist: Die beim CERN wissen sehr genau was sie tun. Es wurde für den LHC schon öffentliches distributed computing eingesetzt wo es sinnvoll war (siehe LHC@Home). Für die Datenmengen die vom Detektor anfallen ist das einfach nicht geeignet.

Außerdem ist die Ansicht des Threadstarters so "nie" etwas zu finden völlig daneben. Man kann die eigenschaften des Higgs-Teilchens innerhalb gewisser Paramter eingrenzen und außerdem "gewöhnliche" Teilchen sofort verwerfen. Das reduziert die Datenmenge enorm.

Pinoccio
2009-05-18, 09:34:32
oT:Auf der anderen Seite ist es wichtig dass man hier das "schnellster bekannter" betont, niemand weis ob man auf einem klassischen Computer Primfaktoren nur in exponentieller Zeit lösen kann oder nicht, es hat bisher nur niemand einen entsprechenden Algorithmus gefunden, das heisst aber noch lange nicht dass er nicht existiert.Es gibt für gewisse Algorithmen Untergrenzen (auf herkömmlichen Computern), d. h. man kann beweisen, daß es nicht schneller geht.

mfg

Gast
2009-05-18, 17:50:49
oT:Es gibt für gewisse Algorithmen Untergrenzen (auf herkömmlichen Computern), d. h. man kann beweisen, daß es nicht schneller geht.

mfg

Das stimmt wohl, es gibt bestimmte Probleme wo du zeigen kannst, dass der Quantenalgorithmus schneller ist, als der schnellste klassische Algorithmus. Der Deutsch-Josza Algorithmus (das zugrunde liegende Problem ist aber ziemlich uninteressant, von daher ist der Algorithmus nicht sonderlich nützlich) wäre da ein Beispiel für. Mir ging es hier konkret um Primzahlfaktorisierung , wenn du da ne Grenze für nen klassischen Algorithmus angeben kannst (und beweisen kannst, dass es wirklich ne Grenze ist) würdest du dafür vermutlich vom Clay Institut ne Millionen Dollar bekommen.

pest
2009-05-18, 19:37:57
Das stimmt wohl, es gibt bestimmte Probleme wo du zeigen kannst, dass der Quantenalgorithmus schneller ist, als der schnellste klassische Algorithmus. Der Deutsch-Josza Algorithmus (das zugrunde liegende Problem ist aber ziemlich uninteressant, von daher ist der Algorithmus nicht sonderlich nützlich) wäre da ein Beispiel für.

da muss man nicht so weit weg.
vergleichsbasierende sortierverfahren können nicht schneller als omega(n*log(n)) sein. der beweis ist trivial.

Pinoccio
2009-05-18, 20:07:03
da muss man nicht so weit weg.
vergleichsbasierende sortierverfahren können nicht schneller als omega(n*log(n)) sein. der beweis ist trivial.Groß-Omega.

mfg

Coda
2009-05-18, 20:12:06
Und ein weiterer Fall von "Großschreibung im Internet kann auch mal nützlich sein" ;)

pest
2009-05-18, 21:16:51
"Großschreibung im Internet kann auch mal nützlich sein" ;)

war das ein witz? ... denn ich musste lachen :)