PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Hat ein Spiegelbild 3D-Tiefeninformationen?


Unfug
2013-01-14, 10:30:51
Guten Morgen Zusammen,

ich habe aktuell eine offene Frage, die im Raum steht. Vielleicht kann mir hier jemand helfen.

Hat das Spiegelbild 3D Informationen (also Tiefeninformationen) der Objekte, die ich im Spiegel sehe?

Man stelle sich vor, ich stelle ein Apfel vor den Spiegel. Je nach Position meiner beiden Augen sehe ich den Apfel anders. Ich gehe auch von zwei Augen bzw 2 Kameras aus.

Man könnte ja davon ausgehen, dass man aufgrund der Laufzeit der reflektierten Strahlung Tiefeninformationen gewinnen könnte.
Denn je nach Position des Apfels verlängert oder verkürzt sich die Laufzeit der reflektierten Strahlung oder? Wäre dies nicht quasi eine echte Abbildung der Realität inkl. aller 3D Informationen?

Ich habe auch das Gesetz nicht gefunden mit dem ich das herausbekomme. Ich habe noch irgendetwas im Hinterkopf, dass durch Reflektion Tiefeninformationen verloren gehen. Ist aber schon so lange her, dass ich auch keine Informationen dazu mehr habe.

Danke

Grestorn
2013-01-14, 10:49:34
Wenn Du den Kopf vor dem Spiegel bewegst, verschiebt sich alles ganz genauso (Parallaxe) wie wenn Du auf die Szene ohne Spiegel schaust.

Also, ja: In einem Spiegel sieht man dreidimensional. Nur eben auch hier seitenverkehrt.

xxMuahdibxx
2013-01-14, 11:30:14
http://wiki.zimt.uni-siegen.de/fertigungsautomatisierung/index.php/3D-Geometrieerfassung_mit_Stereovision#Bedeutung_von_Stereovision

nur mal so als Info .. wenn man 3D Messverfahren hat die sogar mit spiegeln arbeiten wieso solls bei deinem Hausspiegel nicht auch so sein ?

Mystery
2013-01-14, 11:42:24
Da ich mit meiner Kurzsichtigkeit auch im Spiegel weiter entfernte Gegenstände unscharf sehe, würde ich mal aus einer rein alltäglichen Perspektive ebenfalls "ja" sagen ;)

Monger
2013-01-14, 12:07:06
Ein Spiegel speichert ja selbst keine Informationen, sondern leitet sie weiter. Genauso gut könnte man fragen, ob Luft 3D Informationen speichert.

Welche Informationen ich mit einem Spiegel aufnehmen kann, liegt deshalb nicht am Spiegel, sondern am verwendeten Speicher. Wenn ich eine Kamera auf einen Spiegel richte, kriege ich ein Bild ohne Tiefenwirkung raus. Wenn ich eine zweite Kamera darauf richte, habe ich genügend Informationen für ein 3D Bild. Wenn ich eine Infrarotkamera auf den Spiegel richte, kriege ich Informationen außerhalb des sichtbaren Bereichs (ich nehme jetzt mal naiverweise einen perfekten Spiegel an).

kiX
2013-01-14, 12:10:45
ein Bild, welches man, wie auch immer, wahrnimmt, ist immer eine Projektion des Objektes auf unsere "Bildebene".
etwas formeller ausgedrückt: f: R³(x,y,z) -> R²(x,y)
Wir können nur x und y eines Punktes bestimmen. Die Tiefe (z) ist komplett verloren gegangen.
Nun hat uns (und die meisten sehenden Lebewesen) der Herrgott jedoch grandioserweise mit zwei Augen geschaffen. Dadurch erhalten wir bei offenen Augen immer zwei Bilder:
f: R³(x,y,z) -> R1²(x,y)
g: R³(x,y,z) -> R2²(x,y)
Weiterhin liegt keine Tiefeninformation vor. Weil unser Hirn jedoch garnicht so dumm ist, wie man beim Anblick mancher Menschen vermuten mag, extrapoliert es, unter der Annahme, dass beide Augen das gleiche Objekt, nur ganz leicht verändert, wahrnehmen, die Tiefe. Es "überlegt" sich quasi, wie weit weg ein Objekt sein müsste, um bei beiden Augen eine solche Projektion zu erzeugen.

Nun ist ein Spiegelbild ja nicht grundverschieden von einem normalen Objekt. Es bedeutet ja nur eine Verlängerung des Strahlenganges des Lichts vom Objekt. Dadurch sieht das Spiegelbild eines Objektes also für jedes Auge wieder etwas anders aus, wodurch das Gehirn wieder die Tiefe "errechnen" kann.
Somit stellt sich die Frage, ob ein Spiegelbild Tiefeninformationen besitzt, garnicht, da auch ein normales Bild (von dessen das Spiegelbild ja nur eine zusätzliche Einschränkung ist) keine Tiefeninformationen besitzt.


Zur Laufzeit: Die Laufzeit der Strahlung ist doch keine inhärente Eigenschaft der Strahlung. Empfange ein Photon und bestimme die Laufzeit? Ne, so klappt das nicht.

Spasstiger
2013-01-14, 12:44:11
Ein Kumpel entwickelt Anwendersoftware für 3D-Laserscanner und wenn man damit einen Spiegel scannt, sieht es im Scan so aus als ob hinter dem Spiegel nochmal ein Raum wäre. Es ist dann natürlich Aufgabe der Software, solche Fehler zu erkennen und die falschen Punkte zu bereinigen.

gnahr
2013-01-14, 12:59:32
ich find die idee mit der laufzeit geil. a) muessten die quantenpakete sich qualitativ unerscheiden und b) einen prozess erfassen koennen der mit 300000m/s ablaeuft... du hast ne geile reaktionszeit.

kiX
2013-01-14, 13:21:15
ich find die idee mit der laufzeit geil. a) muessten die quantenpakete sich qualitativ unerscheiden und b) einen prozess erfassen koennen der mit 300000m/s ablaeuft... du hast ne geile reaktionszeit.
Davon mal abgesehen. Aber nun stell Dir vor, das ganze liefe noch 1000mal schneller ab. Unglaublich! ;)

gnahr
2013-01-14, 14:36:45
blödes handy verschluckt die kilo-angaben. :(

ein spiegel lenkt ja wirklich nur die strahlen um. ansonsten interagiert er fürs menschliche auge nicht, sonst würden spiegelkabinette nicht so super funktionieren.
ansonsten wurde schon schön erklärt, dass das hirn anhand der form und der größenerfahrung sowie dem parallaxe-versatz entfernungen bewertet. kann jeder ausprobieren: wer sein leben lang räumlich gesehen hat kommt auch mit einem geschloßenen auge noch gut klar und kann weiterhin entfernungen mäßig gut abschätzen.

dreamweaver
2013-01-14, 15:23:53
Ich hatte früher mal die Idee, einen Spiegel als Hilfsobjekt in der Fotografie zu nutzen. Beispielsweise den Spiegel im Wald aufstellen und dann so zu fotografieren, daß der Spiegel(inhalt) halb auf dem Bild ist. Naiv-intuitiv ging ich davon aus, daß die Umgebung schön verschwimmt per Tiefenschärfe und der Spiegelinhalt (Spiegel befindet sich auf der Schärfenebene) schön scharf bleibt.

Als ich das dann mal getestet hatte (natürlich nicht im Wald), war ich im ersten Moment von dem Ergebnis schon verdutzt.

Tja, der Spiegel ist eben kein 2D Monitor.

Unfug
2013-01-14, 15:49:14
Alles klar. Super. Die Kritik hat mir super geholfen.

Wegen der Kritik zur Laufzeit:
Geschwindigkeitmessung bei Blitzern. Funktioniert das nicht ähnlich?


Gruß

Flyinglosi
2013-01-14, 15:57:59
Wegen der Kritik zur Laufzeit:
Geschwindigkeitmessung bei Blitzern. Funktioniert das nicht ähnlich?


Nein da wird in der Regel die Dopplerverschiebung ausgenutzt. Die Radarfalle sendet elektromagnetische Wellen mit definierter Frequenz aus. Am Auto findet eine zweimalige Dopplerverschiebung statt (einmal beim "Empfangen" und einmal beim "Aussenden") und genau diese Verschiebung wird detektiert.

Aus der Laufzeit bzw. Phasenverschiebung zwischen gesendeter und empfangener Welle kann aber der Abstand zum Objekt detektiert werden.

Unfug
2013-01-14, 16:26:14
Nein da wird in der Regel die Dopplerverschiebung ausgenutzt. Die Radarfalle sendet elektromagnetische Wellen mit definierter Frequenz aus. Am Auto findet eine zweimalige Dopplerverschiebung statt (einmal beim "Empfangen" und einmal beim "Aussenden") und genau diese Verschiebung wird detektiert.

Aus der Laufzeit bzw. Phasenverschiebung zwischen gesendeter und empfangener Welle kann aber der Abstand zum Objekt detektiert werden.

Ok. Das ist ein anderes Verfahren. Verstanden.
Ich habe hier (http://de.wikipedia.org/wiki/Abstandsmessung_(optisch))auf Wikipedia aber auch nochmal was zur Laufzeit gelesen.
Zitat: "Die Pulslaufzeit ist die Zeit, die der Lichtstrahl braucht, um zur Quelle reflektiert zu werden. Durch Messen dieser Laufzeit kann man über die Lichtgeschwindigkeit die Distanz zwischen Quelle und Objekt ermitteln" (Quelle Wikipedia).
Demnach ist meine Aussage: Laufzeit der reflektierten Strahlung doch gar nicht so weit weg von der Praxis.

kiX
2013-01-14, 16:32:45
Ok. Das ist ein anderes Verfahren. Verstanden.
Ich habe hier (http://de.wikipedia.org/wiki/Abstandsmessung_(optisch))auf Wikipedia aber auch nochmal was zur Laufzeit gelesen.
Zitat: "Die Pulslaufzeit ist die Zeit, die der Lichtstrahl braucht, um zur Quelle reflektiert zu werden. Durch Messen dieser Laufzeit kann man über die Lichtgeschwindigkeit die Distanz zwischen Quelle und Objekt ermitteln" (Quelle Wikipedia).
Demnach ist meine Aussage: Laufzeit der reflektierten Strahlung doch gar nicht so weit weg von der Praxis.
Dafür musst du aber das Objekt immer vorher "anblitzen". Die Tiefeninformation kommt also auch nicht vom Bild selbst sondern vom "Blitz".
Zudem kannst du ja mal hochrechnen, was für eine Zeitdifferenz da wirklich detektiert werden müsste, um handelsübliche Entfernungen damit zu erkennen. Da ist die Bestimmung der Phasendifferenz wohl sinnvoller.

Unfug
2013-01-14, 16:48:05
Dafür musst du aber das Objekt immer vorher "anblitzen". Die Tiefeninformation kommt also auch nicht vom Bild selbst sondern vom "Blitz".
Zudem kannst du ja mal hochrechnen, was für eine Zeitdifferenz da wirklich detektiert werden müsste, um handelsübliche Entfernungen damit zu erkennen. Da ist die Bestimmung der Phasendifferenz wohl sinnvoller.

Ja das mit dem anblitzen war natürlich inbegriffen in meiner Frage. Meine Formulierung war natürlich mist.
Ich bin davon ausgegangen, dass alle wissen, dass Objekte nur sichtbar sind, weil Sie Licht reflektieren bzw. eine Messung nur dann stattfinden kann, wenn man sie "anblitzt".

Aber die Kritik bzgl. Laufzeitmessung ist doch nicht ganz gegeben oder? Im Wiki ist der Bosch PLR 25 als Bild zu sehen.
Laut Werbung (http://www.amazon.de/Bosch-PLR-Laserentfernungsmesser-Messbereich-Messgenauigkeit/dp/B0033UWLWY) hat dieser einen Messbereich von 0,05 - 25 m Messbereich.
Also gerade der untere Bereich ist doch völlig ausreichend.

mofhou
2013-01-14, 18:44:32
Ja das mit dem anblitzen war natürlich inbegriffen in meiner Frage. Meine Formulierung war natürlich mist.
Ich bin davon ausgegangen, dass alle wissen, dass Objekte nur sichtbar sind, weil Sie Licht reflektieren bzw. eine Messung nur dann stattfinden kann, wenn man sie "anblitzt".

Aber die Kritik bzgl. Laufzeitmessung ist doch nicht ganz gegeben oder? Im Wiki ist der Bosch PLR 25 als Bild zu sehen.
Laut Werbung (http://www.amazon.de/Bosch-PLR-Laserentfernungsmesser-Messbereich-Messgenauigkeit/dp/B0033UWLWY) hat dieser einen Messbereich von 0,05 - 25 m Messbereich.
Also gerade der untere Bereich ist doch völlig ausreichend.
Steht doch eigentlich alles im Wiki, der Bosch wird wahrscheinlich phasenmoduliert sein. ;)

mksn7
2013-01-14, 19:32:22
*Klugscheiss*: Der spiegel vertauscht nicht recht und links, sondern vorn und hinten.

5tyle
2013-01-14, 20:56:30
Kamera mit 1000000000000 FPS (kein Witz)

Erst wusste man nicht warum Objekte bei Aufnahme heller/dunkler erscheinen.
Bis man herausgefunden hat, dass man das Licht selbst erfasst hat.
d.h. man kann bereits Prozesse schneller als das Licht erfassen.

http://web.mit.edu/newsoffice/2011/trillion-fps-camera-1213.html

Monger
2013-01-15, 07:42:10
Kamera mit 1000000000000 FPS (kein Witz)
...
http://web.mit.edu/newsoffice/2011/trillion-fps-camera-1213.html
Naja, Nachteil ist hier, dass sie jede Zeile einzeln abtasten müssen. Sie müssen also sehr viele Durchläufe machen um ein vollständiges Bild zu erzeugen. Trotzalledem natürlich beeindruckend. So weit dass man einfach in die freie Natur laufen und aufnehmen kann wie sich das Sonnenlicht übers Gras legt... das wird noch ne ganze Weile dauern.

Flyinglosi
2013-01-15, 14:14:39
d.h. man kann bereits Prozesse schneller als das Licht erfassen.

Nein kann man nicht. Wenn du gegen Michael Schumacher im F1 auf einem Rundkurs fährst und jedesmal wenn er dich überholt hat einfach stehen bleibst, damit du (nachdem er eine weitere Runde absolviert hat) wieder scheinbar vor ihm liegst, bist du ja auch nicht schneller als er.

In diesem Fall hat man Information aus vielen Perioden erfasst und nimmt an, dass sich (aus der Periodizität) der Verlauf des Prozesses über eine Periode zusammensetzen lässt. Die Idee dazu ist schon recht alt. Es gab Oszilloskope die dieses Prinzip nutzten oder auch Funkempfänger (Diese Unterabtastung stellt ja unter gewissen Voraussetzungen eine einfache Verschiebung im Frequenzbereich dar).

Das ganze klappt aber nur, weil man schon vor dieser Messung bereits sehr viel über den Prozess weiß (Periodizität, dazugehörige Frequenz,...)

mfg Stephan

gnahr
2013-01-15, 22:25:57
So weit dass man einfach in die freie Natur laufen und aufnehmen kann wie sich das Sonnenlicht übers Gras legt... das wird noch ne ganze Weile dauern.
naja, ich entsinne mich vor ewigkeiten mal ne aufnahme eines lichtstrahl in super-ultra-slomo gesehen zu haben. ist wirklich nur das kuriosum des absurden, weil es mit unserem alltag nix gemein hat prozesse auf lichtgeschwindigkeit zu erfassen. allein der weg den ein lichtstrahl in einer greifbaren zeit (sagen wir mal 0,2sek) zurücklegt ist...

Langenscheiss
2013-01-18, 15:28:45
wer sein leben lang räumlich gesehen hat kommt auch mit einem geschloßenen auge noch gut klar und kann weiterhin entfernungen mäßig gut abschätzen.

Ich würde das genau andersrum sehen, falls du das nicht vielleicht meintest. Gerade wer sein Leben lang NICHT Stereovision als weitere Möglichkeit der Entfernungsabschätzung hatte, kommt auch mit einem Auge gut klar. Da muss ich nur mich selbst fragen. Da ich seit Kindheit schiele konnte sich kein stereoskopisches Sehen entwickeln. Für mich ist es daher fast völlig egal, ob ich mit einem oder zwei Augen schaue. Ich hab ein Führungsauge und von dem zweiten Auge werden halt noch die Informationen mit ins Bild gepackt, die keine Doppelbilder verursachen. Darüber hinaus meine ich gelesen zu haben, dass dir stereoskopischen sehen sowieso nur bei sehr geringen Abständen zum Auge eine bessere Einschätzung liefert.

Spasstiger
2013-01-18, 18:49:55
Darüber hinaus meine ich gelesen zu haben, dass dir stereoskopischen sehen sowieso nur bei sehr geringen Abständen zum Auge eine bessere Einschätzung liefert.
Bis etwa 100 m Entfernung kann man noch stereoskopisch sehen, darüber hinaus ist einfach der Winkelunterschied zu gering, um ihn mit den Augen in zwei verschiedene Bilder auflösen zu können. Es ist lustig, wenn die Leute im 3D-Kino bei weitläufigen Landschaftsaufnahmen oder Weltraumszenen die Plastizität vermissen, dabei ist es in der Realität auch nicht anders. Bei Avatar und auch bei Der Hobbit kann man das in einzelnen Szenen gut beobachten. Würden die Filmemacher in solchen Szenen den Augenabstand künstlich vergrößern, würden die Objekte spielzeughaft wirken, da man sie als kleiner einschätzt.