PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Lichtfeldkameras


Avalox
2011-10-06, 22:33:19
3D Aufnahmen, die Schärfentiefe nachträglich verändern, das Bild in der Nachbearbeitung fokussieren.

Klingt toll, ist scheinbar toll und nun auch auf dem Sprung in dem Consumerbereich. Ich habe davon vorher noch nichts gehört (erdacht im Jahr 1903).

Firma Raytrix ist im CCZwei Videocast und wirklich sehenswert.

http://www.cczwei.de/index.php?id=tvissuecurrent

Senior Sanchez
2011-10-06, 22:47:06
Da gabs vor nem halben Jahr mal ein Artikel bei Spiegel Online. Dort gings um die Firma Lytro.

http://www.spiegel.de/netzwelt/gadgets/0,1518,770504,00.html

sth
2011-10-06, 23:23:44
Die Demos sind eindrucksvoll. Wenn die Firma es schafft das Ganze in brauchbarer Form zur Marktreife zu bringen, dann wird die Zukunft sicher spannend.

mksn7
2011-10-07, 13:00:43
Das ganz große Problem bei den Lightfieldkameras ist, dass man massiv Auflösung verliert. Das sieht man auf den kleinen Flashbildern bei Lytro halt nicht.

Avalox
2011-10-07, 13:21:46
Das ganz große Problem bei den Lightfieldkameras ist, dass man massiv Auflösung verliert. Das sieht man auf den kleinen Flashbildern bei Lytro halt nicht.

Da setzt ja das Patent von Raytrix an. Die Auflösung reduziert sich auf ein 1/4. Bei 12MPixel wohl kein Problem. Im Video ist ein Beispielbild eines Gesichts und dieses ist schon sehr beeindruckend.

ENKORE
2011-10-07, 18:36:46
Da setzt ja das Patent von Raytrix an. Die Auflösung reduziert sich auf ein 1/4. Bei 12MPixel wohl kein Problem. Im Video ist ein Beispielbild eines Gesichts und dieses ist schon sehr beeindruckend.
Wenn sich die Auflösung nur um Faktor vier verringert, beleuchtet jede Mirkolinse vier Pixel. Ob das ausreicht, um die Richtung zuverlässig und präzise rekonstruieren zu können, sei dahingestellt...

Avalox
2011-10-07, 20:16:55
Wenn sich die Auflösung nur um Faktor vier verringert, beleuchtet jede Mirkolinse vier Pixel. Ob das ausreicht, um die Richtung zuverlässig und präzise rekonstruieren zu können, sei dahingestellt...

Da kann ich nur die o.g. Sendung zu empfehlen. Das ist ja gerade die Innovation. Ich denke die Ergebnisse sprechen dort schon für sich.

HisN
2011-10-07, 20:27:48
Tja, so dreht sich die Konsum-Spirale.
Ich möchte um nix in der Welt weniger als 16MPx, wenn ich das mal 4 rechne ... aua aua, das könnte teuer werden :-)

Xilavius
2011-10-07, 20:38:02
Habe die Sendung auch auf Dr.Dish gesehen, war sehr interessant anzusehen. Da der Zeigefinger sehr nah an der Linse war war es leider nur ein kleiner sichbarer Winkel den man zeigen konnte, aber es war schon sehr nett anzuschauen und auch diese 3D Darstellung des Gesichtes von der Seite.

Desti
2011-10-08, 18:44:52
Da setzt ja das Patent von Raytrix an. Die Auflösung reduziert sich auf ein 1/4. Bei 12MPixel wohl kein Problem. Im Video ist ein Beispielbild eines Gesichts und dieses ist schon sehr beeindruckend.


Ist das dann schon Software interpoliert, d.h. man bekommt kein RAW mehr aus der Kamera?

Chris2CB
2011-10-08, 22:24:10
Tja, so dreht sich die Konsum-Spirale.
Ich möchte um nix in der Welt weniger als 16MPx, wenn ich das mal 4 rechne ... aua aua, das könnte teuer werden :-)

Sony quetscht 25MP auf nen APS-C Sensor, Canon Testweise 100MP. Das Problem wird da auch sicher nicht der Preis vom Sensor sein, das ist er ja nicht mal heute, sondern wie immer da wo das Licht zuerst durch muss, bevor das ganze auf den Sensor trifft.

MasterElwood
2011-10-16, 15:05:24
Wow die Sendung is peinlich!

Wir sehen hier eine technische sensation - und die 2 Opas bringen das so langweilig und verwirrend rüber das normal menschen spätestens nach der dritten minute weiterzappen.

Die opis haben nicht mal bei den Öffis was verloren.

Wer stellt denn bitte fragen wie "wieviel ist ein viertel"???

Und die sache mit dem Finger! Die beste Demonstration ging voll in die Hose weil der Finger out of focus war! Einfach nur peinlich!

sth
2011-10-16, 16:27:46
Ich möchte um nix in der Welt weniger als 16MPx, wenn ich das mal 4 rechne ... aua aua, das könnte teuer werden :-)
Die Anzahl der Pixel ist ziemlich irrelevant was den Preis von Sensoren angeht. Die Größe des Sensors ist hier ausschlaggebend – deshalb ist ein 35mm-Sensor mit "nur" 12mp immernoch um ein vielfaches teuerer als jeder Kompaktkamerasensor.

ENKORE
2011-10-16, 18:25:09
Das eigentliche Problem der Lichtfeldkameras ist es, dass sie nicht das Lichtfeld der Szene aufnehmen. Das ist ziemlich unmöglich ohne QM Tricks.
Heutige Lichtfeldkameras nehmen pro Vixel (:D Ich nenns mal so: Vector + Pixel = Vixel), einem Verbund aus vielen Pixeln, die Lichtmenge und den Einfallsvektor des Lichts auf. Daraus lässt sich dann ein Teil des Lichtfelds der aufgenommenen Szene rekonstruieren. Bei einem echten Lichtfeld könnte ich z.B. auch den Blickwinkel beliebig ändern. Das geht hier aber nicht, wir haben so quasi nur die nicht von anderen Dingen verdeckten Teile des zu uns gerichteten Teils des Lichtfelds aufgenommen.

Das ist ansich heute schon recht beeindruckend (DoF Spielereien etc.) aber wirklich spannend wird es erst, wenn wir das Lichtfeld der Szene als ganzes quantisieren können. Denn dann machen wir "Klick" und machen die Komposition in aller Ruhe zu Hause am Rechner. Bei einer ausreichenden Dichte der Quantisierung könnte man auch sehr cool Nachbearbeiten. Da wir dann ja für jeden beliebigen Punkt im 3D-Raum die Wellenlänge und Lichtintensität haben, ... ;)

/e: Zu den Sensoren:
Je größer der Sensor ist, desto teurer wird er. Warum? Weil CMOS-Bildsensoren im Prinzip so ähnlich (nur aufwändiger ;D) wie Computerchips gefertigt werden. Je größer der Sensor ist, desto geringer wird die Ausbeute, weil Fehler eben statistisch gleichmäßig über den Wafer verteilt sind (bzw. zum Rand hin häufiger werden afaiK) und es daher schwieriger wird fehlerfreie Exemplare zu erhalten. Hier gilt das gleiche wie eben sonst auch bei Chips; Je größer desto teurer.
Die Auflösung spielt da noch nicht wirklich rein, weil es für die Fehleranfälligkeit (bei der Herstellung) recht wurscht ist, ob das nun Pixel mit nem Pitch von 2 oder 5 µm sind...

Hypothraxer
2011-10-16, 21:50:18
Auch wenn es sich toll anhört - kann sich jemand ernsthaft vorstellen, nach einem Wochenende, wo die Kamera dabei war, jedes der rund 100 Photos, von Hand (!), zu fokussieren? Ich irgendwie nicht.

sth
2011-10-16, 21:54:35
Auch wenn es sich toll anhört - kann sich jemand ernsthaft vorstellen, nach einem Wochenende, wo die Kamera dabei war, jedes der rund 100 Photos, von Hand (!), zu fokussieren? Ich irgendwie nicht.
Nein, aber wer sagt denn, dass man nicht schon bei der Aufnahme einen Fokuspunkt bestimmen können wird? Nur weil man ihn nachträglich ändern kann heißt das ja noch lange nicht, dass man es muss.

ENKORE
2011-10-16, 22:00:15
Auch wenn es sich toll anhört - kann sich jemand ernsthaft vorstellen, nach einem Wochenende, wo die Kamera dabei war, jedes der rund 100 Photos, von Hand (!), zu fokussieren? Ich irgendwie nicht.Komisch, ich wähle von einer großen Menge an Fotos so circa 10-20 aus und bearbeite die von Hand nach. So macht das eigentlich jeder Hobbyfotograf seit Jahren. Was würde sich da groß ändern, wenn ich nachträglich fokussiere? Außerdem kann man das auch super automatisieren - einfach ins Bild dorthin klicken, wo die Schärfe sitzen soll und die Software erledigt den Rest. [Das ist vom Rechnen her sogar einfacher als dem Benutzer die Möglichkeit zu geben an nem Regler zu fokussieren, da man in dem Fall erstmal berechnen muss wo die Schärfeebene bei "platter" Interpretation der Vixel liegt.]

Hypothraxer
2011-10-16, 22:39:01
Komisch, ich wähle von einer großen Menge an Fotos so circa 10-20 aus und bearbeite die von Hand nach. So macht das eigentlich jeder Hobbyfotograf seit Jahren. Was würde sich da groß ändern, wenn ich nachträglich fokussiere? Außerdem kann man das auch super automatisieren - einfach ins Bild dorthin klicken, wo die Schärfe sitzen soll und die Software erledigt den Rest. [Das ist vom Rechnen her sogar einfacher als dem Benutzer die Möglichkeit zu geben an nem Regler zu fokussieren, da man in dem Fall erstmal berechnen muss wo die Schärfeebene bei "platter" Interpretation der Vixel liegt.]

Soweit ich es verstanden habe, gibt es genau eine Auslösung - wo du gar nichts scharf stellen kannst - das 'scharf' stellen geschieht erst im Nachhinein - quasi im Post-Processing. Zumindest habe ich aus diesem Artikel so verstanden:

http://www.dpreview.com/news/1108/11081810lytrointerview.asp

Wenn es natürlich so wäre, dass eine bestimmte Fokussierung bereits drin ist, wäre das etwas total anderes. Ich bearbeite auch ab und an Photos nach - auch wenn ich, je länger je mehr, dazu übergegangen bin, mir beim Photographieren einfach noch ~3 - 5 Sekunden mehr Zeit zu nehmen und ich somit praktisch nichts mehr nachbearbeite (geht natürlich bei Landschaftsphotographie gut - bei anderen Motiven eher weniger). So wäre es natürlich praktisch, eine schief-gegangene Fokussierung nachträglich noch zu korrigieren.

Ihm
2011-10-17, 00:30:41
Wow die Sendung is peinlich!

Die Sendung ist Kult.


Wir sehen hier eine technische sensation -

Nee, sehen wir nicht. Aber für Konsumkiddies ist ja alles eine Sensation. :freak:


und die 2 Opas bringen das so langweilig und verwirrend rüber das normal menschen spätestens nach der dritten minute weiterzappen.

Sag doch einfach, dass du kein Wort verstanden hast.
Und ein wenig "eigen" waren die beiden schon immer, na und?


Die opis haben nicht mal bei den Öffis was verloren.

http://de.wikipedia.org/wiki/WDR_Computerclub
Mal nicht so vorlaut.


Wer stellt denn bitte fragen wie "wieviel ist ein viertel"???

Kinder, Blöde und die Typen hier. :D
Vielleicht auch aus jeweils anderen Gründen.


Und die sache mit dem Finger! Die beste Demonstration ging voll in die Hose weil der Finger out of focus war! Einfach nur peinlich!

ORLY? Der Finger war also "out of focus". Vielleischt machst du es the next time much better. Warum lässt du dich nicht mal casten? Beim DoubleU-Dee-Ar laufen bestimmt viele Hotties rum, die du mal nice checken könntest.

ENKORE
2011-10-17, 01:58:30
Soweit ich es verstanden habe, gibt es genau eine Auslösung - wo du gar nichts scharf stellen kannst - das 'scharf' stellen geschieht erst im Nachhinein - quasi im Post-Processing. Zumindest habe ich aus diesem Artikel so verstanden:

http://www.dpreview.com/news/1108/11081810lytrointerview.asp

Wenn es natürlich so wäre, dass eine bestimmte Fokussierung bereits drin ist, wäre das etwas total anderes. Ich bearbeite auch ab und an Photos nach - auch wenn ich, je länger je mehr, dazu übergegangen bin, mir beim Photographieren einfach noch ~3 - 5 Sekunden mehr Zeit zu nehmen und ich somit praktisch nichts mehr nachbearbeite (geht natürlich bei Landschaftsphotographie gut - bei anderen Motiven eher weniger). So wäre es natürlich praktisch, eine schief-gegangene Fokussierung nachträglich noch zu korrigieren.
Natürlich wird bei der Aufnahme fokussiert. Schonmal versucht ein Objektiv zu bauen, wo du keinen Fokus einstellen kannst? Der Witz ist halt, dass du auch später die Schärfe noch ändern kannst, sofern es nicht ZU weit aus der Schärfeebene raus ist - denn dann werden die Streukreise so groß, dass du den Vektor nicht mehr genau bestimmten kannst... ergo wird das nachträglich fokussierte auch wieder unscharf...

Hypothraxer
2011-10-17, 08:55:12
Natürlich wird bei der Aufnahme fokussiert. Schonmal versucht ein Objektiv zu bauen, wo du keinen Fokus einstellen kannst? Der Witz ist halt, dass du auch später die Schärfe noch ändern kannst, sofern es nicht ZU weit aus der Schärfeebene raus ist - denn dann werden die Streukreise so groß, dass du den Vektor nicht mehr genau bestimmten kannst... ergo wird das nachträglich fokussierte auch wieder unscharf...

Das wird in dem Artikel, den ich verlinkt habe, aber anders umschrieben:

"Not only would such a device be able to produce re-focusable images, but it also wouldn't need focusing at the point of shooting."

Ob das nun heisst, dass eine Fokussierung nicht möglich ist, oder dass die Fokussierung, zum Zeitpunkt der Aufnahme, egal ist, wird aus dem Satz allerdings nicht ganz klar. Zu beobachten ist allerdings, dass die Beispiele auf der Seite die ich verlinkt habe, allesamt nicht wirklich scharf sind - egal worauf fokussiert wird.

TheGoD
2011-10-17, 12:58:48
Zumindest bezüglich der Bearbeitung könntest du ganz normal während des fotografierens den Fokus bestimmen, welcher dann in den Metadaten des Bildes gespeichert und später am PC durch die Software berücksichtigt wird.

ENKORE
2011-10-17, 14:29:21
Das wird in dem Artikel, den ich verlinkt habe, aber anders umschrieben:

"Not only would such a device be able to produce re-focusable images, but it also wouldn't need focusing at the point of shooting."

Ob das nun heisst, dass eine Fokussierung nicht möglich ist, oder dass die Fokussierung, zum Zeitpunkt der Aufnahme, egal ist, wird aus dem Satz allerdings nicht ganz klar. Zu beobachten ist allerdings, dass die Beispiele auf der Seite die ich verlinkt habe, allesamt nicht wirklich scharf sind - egal worauf fokussiert wird.
Es benötigt übrigens sehr wohl eine Fokussierung - siehe auch den vorher verlinkten cc² Cast dazu - wenn ein Objekt (hatte ich vorhin aber auch schon geschrieben) zu weit aus dem Fokusbereich bei der Aufnahme raus ist, kriegt man es auch im post-processing nicht mehr scharf.

Und, ich betone es noch einmal, sobald du Linsen hast, hast du auch irgendwo einen Fokus. Die Mikrolinsen fokussieren das Bild auf den Sensor, das Objektiv um eine Ebene vor den Mikrolinsen.
Fakt.

sth
2011-10-19, 21:57:09
Pre-Order startet heute, Auslieferung 2012: https://thisismynext.com/2011/10/19/lytro-plenoptic-light-field-camera-pre-orders-today-shipping-2012/

Zum Thema Ergonomie sag' ich jetzt mal lieber nix. Sollte das Teil technologisch überzeugen bin ich aber sicher, dass wir zukünftig auch andere Gehäusevarianten sehen werden. ;)

Unlimited
2011-10-24, 16:19:37
Pre-Order startet heute, Auslieferung 2012: https://thisismynext.com/2011/10/19/lytro-plenoptic-light-field-camera-pre-orders-today-shipping-2012/

Zum Thema Ergonomie sag' ich jetzt mal lieber nix. Sollte das Teil technologisch überzeugen bin ich aber sicher, dass wir zukünftig auch andere Gehäusevarianten sehen werden. ;)

Ich kann mir kaum vorstellen, dass dieses Marketing gehypte Produkt technologisch überzeugen können wird.
Allein der irreführende Begriff "Lichtfeldkamera" trifft es m.E. überhaupt nicht und verspricht Vorteile, die es mit einem 2D-Sensor physikalisch garnicht geben kann: ein durchgehendes Fokusfeld.
Eine "echte" Lichtfeldkamera bräuchte einen 3D-Sensor -absolute Utopie.
Multi-Fixfokuskamera würde es eher treffen, aber dann würde sich auch niemand dafür interessieren, weil alle gleich den faulen Zauber erkennen würden.
Bei diesem Fake-Produkt gehen durch die gleichzeitige Aufnahme multipler Fokusebenen auf eine 2D-Chipebene massiv Pixel Zulasten der Bildqualität und Lichtempfindlichkeit verloren.

Nimm einfach drei billige Fixfokuskameras mit möglichst kleinem Chip (großer Schärfebereich), schnalle sie zusammen und stelle den Fokus einer jeden Kamera auf eine andere Fokusebene ein.
Programmiere noch eine Software (gibt es bereits), die aus drei Bildern eins mit dem gewünschten Zwischenfokus berechnet und du hast das gleiche in besserer Bildqualität und auf Wunsch sogar in realem 3D.
Eigentlich musst du bei drei Fixfokusbildern mit großer Wahrscheinlichkeit garnicht erst mit Software rechnen, sondern wählst einfach das Bild der Kamera aus, die das Motiv scharf abbildet.

Pre-Order gibts m.E. nur, damit möglichst viele Kunden das Teil kaufen, bevor sich herumgesprochen hat, wie mies die Bildqualität ist.

sth
2011-10-24, 19:47:44
Multi-Fixfokuskamera würde es eher treffen, aber dann würde sich auch niemand dafür interessieren, weil alle gleich den faulen Zauber erkennen würden.
Bei diesem Fake-Produkt gehen durch die gleichzeitige Aufnahme multipler Fokusebenen auf eine 2D-Chipebene massiv Pixel Zulasten der Bildqualität und Lichtempfindlichkeit verloren.

Nimm einfach drei billige Fixfokuskameras mit möglichst kleinem Chip (großer Schärfebereich), schnalle sie zusammen und stelle den Fokus einer jeden Kamera auf eine andere Fokusebene ein.
Programmiere noch eine Software (gibt es bereits), die aus drei Bildern eins mit dem gewünschten Zwischenfokus berechnet und du hast das gleiche in besserer Bildqualität und auf Wunsch sogar in realem 3D.
Eigentlich musst du bei drei Fixfokusbildern mit großer Wahrscheinlichkeit garnicht erst mit Software rechnen, sondern wählst einfach das Bild der Kamera aus, die das Motiv scharf abbildet.
Zwischen "man muss einfach nur <insert_25_steps_here>" und einfach einmal auf den Auslöser drücken besteht der fundamentale Unterschied, dass ersteres vielleicht für ein nerdiges Studentenprojekt interssant ist, während letzteres ein für Konsumenten interessantes Produkt darstellen könnte.

Wenn natürlich ein anderer Hersteller den von dir vorgeschlagenen Ansatz in ein Produkt integrieren würde, dann sähe die Sache schon anders aus. Hat aber bisher niemand.

Egal wie es implementiert ist: Für den Endkunden zählt nicht die technische Auslegung des Begriffs "Lichtfeldkamera" als Kaufargument (die würde ihn höchstens interessieren wenn die Kamera mit "echten" Lichtfeldkameras zu konkurrieren hätte). Es zählt einzig die Tatsache, dass man mit dieser Kamera etwas tun kann, was mit anderen derzeit erhältlichen Produkten nicht funktioniert. Sonst nichts.

Wie gesagt: In wie weit sie damit erfolgreich sein werden hängt von vielen Faktoren ab. Potentielle Stoplersteine, die einen kommerziellen Erfolg verhindern könnten, gibt es genug (Bildqualität, Auflösung, Ergonomie).

del_4901
2011-10-24, 20:25:38
Wie gesagt: In wie weit sie damit erfolgreich sein werden hängt von vielen Faktoren ab. Potentielle Stoplersteine, die einen kommerziellen Erfolg verhindern könnten, gibt es genug (Bildqualität, Auflösung, Ergonomie).
Du hast vergessen das man einen Mac fuer die Software braucht. (Steht im Kleingedruckten)

sth
2011-10-24, 20:29:21
Stimmt, auch noch ein Punkt. Das schränkt den potentiellen Käuferkreis noch weiter ein.