PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : MS Kinect IR-Laser Abtaster


Partner
2010-11-08, 13:32:30
http://www.youtube.com/watch?v=5TjBZie_sRo
http://www.youtube.com/watch?v=nvvQJxgykcU
http://www.youtube.com/watch?v=-GbsLKSory8

mironicus
2010-11-08, 13:44:56
Ein schönes Stück Technik. Ich kann es kaum erwarten, bis man es auch am PC verwenden kann. :)

Hydrogen_Snake
2010-11-08, 14:47:44
:eek:

Sieht echt NICE aus. Da sind doch tatsächlich welche am Krebsgefahr labern :facepalm: bei den YT comments.

TheCounter
2010-11-08, 16:41:16
Die ersten Treiber für den PC sind schon in entwicklung. Bin mal gespannt für was man das dann alles nutzen kann.

Ich hoffe ja MS integriert das irgendwie ins nächste Windows, wär doch nice :biggrin:

Coda
2010-11-08, 18:18:34
:eek:

Sieht echt NICE aus. Da sind doch tatsächlich welche am Krebsgefahr labern :facepalm: bei den YT comments.
:biggrin:

Aber wusstet ihr nicht das Wärmestrahlung Krebs verursacht!!111 X-D

Mark
2010-11-08, 19:53:16
Und warum soll Kinect dann angeblich ein Problem mit dunklen Hauttönen haben? Die IR-"Punkte" bewegen sich doch trotzdem.

S8472
2010-11-08, 21:01:09
Kinect nutzt ja nicht nur eine Infrarot Kamera. Da ist ja noch eine andere vorhenaden. Die wird dann wahrscheinlich Probleme machen.
Beim Infrarotbild würde es mich auch sehr wundern.

Partner
2010-11-08, 21:54:52
Und warum soll Kinect dann angeblich ein Problem mit dunklen Hauttönen haben? Die IR-"Punkte" bewegen sich doch trotzdem.Na ist doch offensichtlich: RASSISMUS!

Avalox
2010-11-08, 23:37:31
Also ich bin ehrlich verblüfft.

Microsoft hat Move von Sony nachgebaut. Ich hätte mit Linienmuster gerechnet, aber nun kommt Move heraus. Nur eben mit 1000x Controllern und in monochrome.

Coda
2010-11-09, 00:39:00
Hä? Move hat doch keinen Laser sondern nur die blöden Krüppellaserschwerter und ne Webcam. Oder hab ich da was falsch verstanden?

Avalox
2010-11-09, 01:03:18
Hä? Move hat doch keinen Laser sondern nur die blöden Krüppellaserschwerter und ne Webcam. Oder hab ich da was falsch verstanden?

na der Schlüssel zu Move ist die leuchtende Bommel auf dem Griff.

Das Kinect pflastert die Wand mit projizierten Bommeln. Diese können sich zwar nicht von unten nach oben, oder links nach rechts bewegen. Allerdings können diese sich von vorne nach hinten und umgekehrt bewegen. Eben dann wenn sich die "Leinwand", eben das Objekt entsprechend bewegt. Ein Leuchtpunkt welcher nicht mehr auf das Objekt "Mensch" trifft, fällt wieder in die Tiefe zurück.

Es scheint ja schlicht die Helligkeit der 320x200 Pixel Kamera pro Pixel gemessen zu werden. Ein näherer Punkt ist natürlich perspektivisch größer, damit der Pixel heller. Deshalb ist die Anzahl der Graustufen auch mit 16Bit für die Kamera so hoch. Rein von der Auflösung ist die Kamera ja gar nicht in der Lage das Punktmuster aufzulösen. Ist auch gar nicht das Ziel.

Alles was die Software "noch" machen muss, ist aus dem damit freigestellten Bild des Helligkeitsmusters einen menschlichen Umrisses zu erkennen und den Gliedmaßen zuzuordnen.


So denke ich mir dieses jedenfalls, wenn ich mir das Punktmuster so ansehe.

Sony hat den materiellen Leuchtbommel, MS projiziert virtuelle Leuchtbommel.

Interessante Technik.

TheCounter
2010-11-11, 15:02:16
Es scheint ja schlicht die Helligkeit der 320x200 Pixel Kamera pro Pixel gemessen zu werden.

Mittlerweile ist nachgewiesen worden das Kinect doch ein Tiefenbild in einer Auflösung von 640x480 Pixel liefern kann (statt der zuvor angenommenen 320x240):

The latter video is especially intriguing as, according to Alex, the depth feed can be captured at 640x480 - just like the PrimeSense reference camera from which Kinect is adapted - while the official Kinect spec lists depth resolution at a quarter of that - 320x240. (http://www.eurogamer.net/articles/digitalfoundry-kinect-pc-blog-entry)

Avalox
2010-11-11, 15:05:50
Mittlerweile ist nachgewiesen worden das Kinect doch ein Tiefenbild in einer Auflösung von 640x480 Pixel liefern kann (statt der zuvor angenommenen 320x240):

Ja habe ich gelesen bei den freien Treibern zum Kinect. Ändert aber nichts grundsätzlich, ausser dass natürlich feinere Bewegungen vielleicht erkannt werden können.


Die Auflösung wird ja durch das projizierte Muster bestimmt.

Hat dort schon mal jemand die Punkte nachgezählt?

Simon
2010-11-12, 10:06:02
Hat Kinect (Hard- und Software) nicht auch noch weitergehende Unterstützung für grundlegende Erkennung von Skeletten/Animationen? Das bisherige ist ja schon interessant, aber sowas fehlt dann noch =)

Thorwan
2010-11-12, 11:41:41
Hat Kinect (Hard- und Software) nicht auch noch weitergehende Unterstützung für grundlegende Erkennung von Skeletten/Animationen? Das bisherige ist ja schon interessant, aber sowas fehlt dann noch =)
Meinst du sowas?

http://www.youtube.com/watch?v=_BVnGorzu40

Da sieht man auch ganz gut, welche Grenzen Kinect auf technischer Seite hat. Bei schnellen Bewegungen hat die Kamera keine Chance mehr, zu wissen welches Bein sich wo befindet. Sorry wegen der Qualität, hatte nur die Webcam meines MacBook zur Hand.

Edit: Wobei ich anmerken muss, dass Dance Central dieses Problem verdammt gut zu vertuschen vermag. Keine Ahnung welche Tricksereien Harmonix zusätzlich verwendet um die Bewegung zu erfassen, aber es funktioniert ziemlich präzise.

TheCounter
2010-11-12, 13:20:21
Multitouch with hacked Kinect:

http://www.youtube.com/watch?v=ho6Yhz21BJI

Avalox
2010-11-12, 13:23:53
Hat Kinect (Hard- und Software) nicht auch noch weitergehende Unterstützung für grundlegende Erkennung von Skeletten/Animationen? Das bisherige ist ja schon interessant, aber sowas fehlt dann noch =)


Dass wird nicht im Sensor(Kameras, Mikrophone) erzeugt. Diese Bilderkennung wird in der XBox durchgeführt. Kinect ist ja mehr als die 3D Sensorleiste, es ist ja vor allen eine Softwarelösung zur 3D Bild- und Bewegungserkennung. Das Skelett entsteht in der XBox.
Nun steht MS mit solchen Technologien nicht allein. OpenCV bietet dieses z.B. auch für jedermann frei zugänglich. Kinect ist vor allen interessant, weil es sehr billig die Raumtiefe erfasst. Sowas gibt es in den Preisregionen ansonsten nicht zu kaufen.

Simon
2010-11-12, 14:09:20
Dass wird nicht im Sensor(Kameras, Mikrophone) erzeugt. Diese Bilderkennung wird in der XBox durchgeführt. Kinect ist ja mehr als die 3D Sensorleiste, es ist ja vor allen eine Softwarelösung zur 3D Bild- und Bewegungserkennung. Das Skelett entsteht in der XBox.
Nun steht MS mit solchen Technologien nicht allein. OpenCV bietet dieses z.B. auch für jedermann frei zugänglich. Kinect ist vor allen interessant, weil es sehr billig die Raumtiefe erfasst. Sowas gibt es in den Preisregionen ansonsten nicht zu kaufen.
Ah, danke :) Dann hatte ich das falsch im Kopf...

][immy
2010-11-12, 20:11:22
Multitouch with hacked Kinect:

http://www.youtube.com/watch?v=ho6Yhz21BJI


na das kann ja noch interessant werden. wenn der typ der an der Wii schon gebestellt hat sich über kinect her macht ...das kann sehr spannend werden, was man damit alles realisieren kann.

Beam + Kinect über einem Tisch. das würde doch ein interessanterer "desktop" werden als damals mit der Wiimote.

TheCounter
2010-11-15, 00:26:32
Und weiter gehts. 3D Video Capturing mit Kinect:

http://www.youtube.com/watch?v=7QrnwoO1-8A&feature=player_embedded#!

Simon Moon
2010-11-15, 07:50:42
Kinect ist vor allen interessant, weil es sehr billig die Raumtiefe erfasst. Sowas gibt es in den Preisregionen ansonsten nicht zu kaufen.

Aber ob damit keine Abstriche mit der Genauigkeit verbunden sind?

In Spielen kann man das noch mit einer "unsichtbaren Hilfe" kaschieren, bei einer Steuerung dürfte das schwieriger werden. Zudem benötigt das System wohl eine gewisse Distanz vom Bildgerät, um richtig zu funktionieren.

Wär imo revolutionär als Fernbedienung: *wuusch* ich scheuer dem Assi im TV eine und das Programm zappt weiter! Ein Traum!

Avalox
2010-11-15, 08:55:30
Aber ob damit keine Abstriche mit der Genauigkeit verbunden sind?

Doch ganz sicher. Die Genauigkeit ist schon nicht so gigantisch, dass kann man ja sehr deutlich an den Projektbildern der freien Treiber zum Kinect erkennen.

Die Objekte lassen sich ja prinzipbedingt "nur" dort erkennen, wo ein projizierter Punkt ist und zudem der Punkt voll und unverzerrt auf dem Objekt abgebildet werden kann.

Ist ja ähnlich wie die Antialiasing Abtastmuster, oder allgemein das Samplemuster bei 3D Grafik, entzieht sich das Objekt von seiner Form der Punktverteilung, wird es auch nicht dargestellt.

Aber dieses ist ja schon vielmehr, als man vorher konnte, schließlich gibt es direkt vom Sensor eine echten Tiefenkoordinate.


Wär imo revolutionär als Fernbedienung: *wuusch* ich scheuer dem Assi im TV eine und das Programm zappt weiter! Ein Traum!

Ich denke die größten Schwierigkeit wird es sein normale "Altagsbewegungen", von Bewegungen zur Fernsteuerung zu unterscheiden. Aber cool ist dieses schon, mal sehen was es in nächster Zeit noch geben wird.

AnarchX
2010-11-15, 09:59:42
Is Your Videogame Machine Watching You?
http://blogs.wsj.com/digits/2010/11/11/is-your-videogame-machine-watching-you/?KEYWORDS=kinect

Da wird wohl bald der beleibtere Gamer mit Diät-Werbungen überschüttet? Die Übermittlung solcher Informationen wird man wohl in den AGBs gewisser Gratisspiele verstecken können. ;)

xxxgamerxxx
2010-11-15, 10:02:50
Ich denke die größten Schwierigkeit wird es sein normale "Altagsbewegungen", von Bewegungen zur Fernsteuerung zu unterscheiden. Aber cool ist dieses schon, mal sehen was es in nächster Zeit noch geben wird.

Aktuell ist es so, dass du immer in den Sensor winken musst, um Kinect zu aktivieren. Alternativ sind dann Sprachsteuerungen denkbar, wo mittels eines Sprachkommandos eine nachfolgende Eingabe aktiviert wird.

Aber Kinect erkennt schon richtig gut. Bei Dance Central bedient man ja die Listen so, dass man mit einer Hand nach oben/unten srollt und dann mit dem Arm über den Körper wischt. Beim Zurück Button muss man das ganze dann mit dem linken Arm machen. Neben mir links stand da meine Freundin an mich gelent und ich habe mal mit dem linken Arm dann den Zurück Button bei Dance Central aktiviert. Das hat Kinect tadellos erkannt. Für ein Version 1.0 Gerät ist das schon beeindruckend.

Simon Moon
2010-11-16, 23:43:38
Ich denke die größten Schwierigkeit wird es sein normale "Altagsbewegungen", von Bewegungen zur Fernsteuerung zu unterscheiden. Aber cool ist dieses schon, mal sehen was es in nächster Zeit noch geben wird.

Da könnte man sowas wie ne "Tastensperre" machen. Entweder durch eine markante Geste oder ein Wort.

Ich näm dann "Arschloch". Das ging dann so "Arschloch" *wuusch* -> zapp ;D

nino
2010-11-17, 00:17:21
Es scheint ja schlicht die Helligkeit der 320x200 Pixel Kamera pro Pixel gemessen zu werden. Ein näherer Punkt ist natürlich perspektivisch größer, damit der Pixel heller. Deshalb ist die Anzahl der Graustufen auch mit 16Bit für die Kamera so hoch. Rein von der Auflösung ist die Kamera ja gar nicht in der Lage das Punktmuster aufzulösen. Ist auch gar nicht das Ziel.
.

So könnte man höchstens (und nur wenn es sonst keine anderen Lichtquellen gäbe) den relativen Abstand zwischen zwei Punkten bestimmen. Und das ganze müsste sehr aufwändig kalibriert werden.
Wahrscheinlicher ist, dass die Tiefenkoordinate aus dem Abstand jeweils benachbarter Punkte bestimmt wird.

Avalox
2010-11-17, 16:47:16
Und das ganze müsste sehr aufwändig kalibriert werden.
Wahrscheinlicher ist, dass die Tiefenkoordinate aus dem Abstand jeweils benachbarter Punkte bestimmt wird.

Es muss nicht individuell kalibriert werden, da der Projektor und die Kamera ja ein System sind.
Damit hat ein Punkt in einer definierten Entfernung, auf einen Referenzreflektor immer eine entsprechende Größe und Helligkeit und damit entsprechende Lichtmenge, welcher dieser zur Kamera reflektiert. Da muss nichts individuell kalibriert werden.

Den Abstand der Punkte zueinander kannst du nicht als Indikator messen, da das Muster nicht regelmäßig ist und somit der Abstand schon aus dem Muster heraus variiert. Ein schön reflektierte Punkt reicht dort völlig aus um, eine Tiefeninformation zu erhalten.

Das Verfahren auf der Seite der Kamera wird sicherlich sehr, sehr trivial sein. Vermutlich wird man einfach aus dem Helligkeitswert direkt die Tiefeninformation generieren. Vielleicht werden noch benachbarte Pixel ausgewertet, falls ein naher Punkt eine Zahl von Pixel zusammenhängend beleuchtet.

Die Kamera arbeitet mit 16Bit Graustufen und löst damit die Raumtiefen schon aus der Helligkeit in 16Bit auf, hinzu kommt das Punktgrößen einzelne Pixel übersteigen können und somit sich die Tiefeninformation noch weiter auflöst.

Der technische Knaktus ist es das Punktmuster zu projizieren. Der Punkt darf sich halt nicht groß auffächern in der Tiefe. Das löst halt Kinect mit dem Linsenvorsatz und der Verwendeten IR Laserdiode.
Natürlich dürfen auch keine angestrahlten regelmäßigen Objekte, durch perspektivische Effekte zu einer Punktkonzentration führen, welche dann fälschlicherweise als großer Punkt interpretiert werden könnte. Dieses löst Kinect über das spezielle Verteilungsmuster.


Das Kinect Verfahren ist dem Move Leuchtkugelansatz schon sehr ähnlich, nur ungleich fortgeschrittener und weiter gedacht. Kinect virtualisiert die Move-Kugel.

Würdest du den Spieler in eine IR Strahlung schluckenden Anzug stecken und nur ein Hand frei lassen, dann hättest du haargenau die Movekugel. (natürlich ohne die restliche lokale Sensorik des Move Device)

Bei Kinect trägt der Spieler am ganzen Körper "Movekugeln", einen Anzug auf Movekugeln, nur dass er diesen freundlicherweise nicht anziehen braucht, sondern diese einfach drauf projiziert werden.

RaumKraehe
2010-11-17, 17:03:59
http://www.spiegel.de/netzwelt/games/0,1518,729454,00.html

Avalox
2010-11-17, 17:16:49
http://www.spiegel.de/netzwelt/games/0,1518,729454,00.html


Hier zum runterladen und selbst experimentieren .


http://idav.ucdavis.edu/~okreylos/ResDev/Kinect/index.html

nino
2010-11-17, 17:41:54
Es muss nicht individuell kalibriert werden, da der Projektor und die Kamera ja ein System sind.
Damit hat ein Punkt in einer definierten Entfernung, auf einen Referenzreflektor immer eine entsprechende Größe und Helligkeit und damit entsprechende Lichtmenge, welcher dieser zur Kamera reflektiert. Da muss nichts individuell kalibriert werden.

Die Helligkeit eines Pixels hängt doch massiv vom Umgebungslicht ab. Wenn die Sonne nur auf meinem Arm scheinen würde, müsste Kinect den doch als viel näher wahrnehmen, weil seine Helligkeit so hoch ist.
Dazu kommt dann noch das jede Oberfläche unterschiedlich viel Licht zurückwirft.
Oder hab ich dich da falsch verstanden?


Den Abstand der Punkte zueinander kannst du nicht als Indikator messen, da das Muster nicht regelmäßig ist und somit der Abstand schon aus dem Muster heraus variiert. Ein schön reflektierte Punkt reicht dort völlig aus um, eine Tiefeninformation zu erhalten.

Naja, für mich sahen die Punkte schon aus, als wären sie alle in festem Abstand zueinander (wenn sie auf eine Referenzebene projeziert werden).


Das Verfahren auf der Seite der Kamera wird sicherlich sehr, sehr trivial sein. Vermutlich wird man einfach aus dem Helligkeitswert direkt die Tiefeninformation generieren. Vielleicht werden noch benachbarte Pixel ausgewertet, falls ein naher Punkt eine Zahl von Pixel zusammenhängend beleuchtet.

Die Kamera arbeitet mit 16Bit Graustufen und löst damit die Raumtiefen schon aus der Helligkeit in 16Bit auf, hinzu kommt das Punktgrößen einzelne Pixel übersteigen können und somit sich die Tiefeninformation noch weiter auflöst.

Der technische Knaktus ist es das Punktmuster zu projizieren. Der Punkt darf sich halt nicht groß auffächern in der Tiefe. Das löst halt Kinect mit dem Linsenvorsatz und der Verwendeten IR Laserdiode.
Natürlich dürfen auch keine angestrahlten regelmäßigen Objekte, durch perspektivische Effekte zu einer Punktkonzentration führen, welche dann fälschlicherweise als großer Punkt interpretiert werden könnte. Dieses löst Kinect über das spezielle Verteilungsmuster.

Was für eine Verteilung benutzt Kinect?

Brillus
2010-11-17, 18:27:21
[immy;8385287']na das kann ja noch interessant werden. wenn der typ der an der Wii schon gebestellt hat sich über kinect her macht ...das kann sehr spannend werden, was man damit alles realisieren kann.

Beam + Kinect über einem Tisch. das würde doch ein interessanterer "desktop" werden als damals mit der Wiimote.
Mh wenn es der Kerl ist vom dem Wii-Video in der liste daneben, hat er es bestimmt schon der ist nämlich mittlerweiel bei Mircrosoft angestellt.

Avalox
2010-11-17, 20:06:18
Die Helligkeit eines Pixels hängt doch massiv vom Umgebungslicht ab. Wenn die Sonne nur auf meinem Arm scheinen würde, müsste Kinect den doch als viel näher wahrnehmen, weil seine Helligkeit so hoch ist. Dazu kommt dann noch das jede Oberfläche unterschiedlich viel Licht zurückwirft.

Der Schlüssel ist dort die Wellenlänge des IR Lasers. Infrarotstrahlung wird durch die Atmosphäre sehr nachhaltig absorbiert und gestreut.
Mit Helligkeit meine ich das IR Licht welches auf den IR empfindlichen Sensor der Kamera zurück geworfen wird und dort als Helligkeit des Pixels interpretiert wird. Sichtbar ist das Licht des Projektors natürlich nicht.

Und nicht zu vergessen, dass natürlich Sonneneinstrahlung auch tatsächlich das Kinect stört.




Naja, für mich sahen die Punkte schon aus, als wären sie alle in festem Abstand zueinander (wenn sie auf eine Referenzebene projeziert werden).


Nein, dieses ganz sicher nicht.
Man muss es sich nur mal aus der Nähe ansehen.

http://www.youtube.com/watch?v=9MphN_ueAUE&feature=related



Was für eine Verteilung benutzt Kinect?

Augenscheinlich irgend ein stochastisches Verteilungsmuster.

RaumKraehe
2010-11-17, 20:13:26
Wer übrigens mal wissen will wie das ganze rein technisch funktioniert:

http://de.wikipedia.org/wiki/TOF-Kamera

Botcruscher
2010-11-17, 20:13:35
Nette Sachen. Gerade Laser zum abtasten waren früher richtig teuer.

PS: Für 3D Anwendungen ala CAD und Architektur ein gigantisches Potential.

Avalox
2010-11-17, 20:15:02
Wer übrigens mal wissen will wie das ganze rein technisch funktioniert:



Nein Kinect ist keine TOF Kamera.

Nightspider
2010-11-17, 20:20:04
Interessanter wäre, ob man mit 4 Kinects schon ein komplettes 3D Ebenbild von sich erschaffen könnte.

Wer brauch noch diese 3D Avatare wie bei der Wii? In Zukunft ist man selber im Spiel. :O

RaumKraehe
2010-11-17, 20:20:23
Nein Kinect ist keine TOF Kamera.

Jaein. Aber ein Teil der Technologie wird in dem System zu 100% benutzt. Bei Kinect Kombiniert mit mit anderen Technologien.

Ist zu 100% eine TOF-Kamera.

Ansonsten wäre das Video des Typen weiter oben nicht möglich. Denn dafür muss die Entfernung jedes Punktes im Raum in Relation zur Kamera vermessen werden. Was nichts weiter ist als eine TOF Kamera.

Gestensteuerung mit einer TOF Kamera: http://www.youtube.com/watch?v=K0-4-FObaRU

Ist genau das gleiche wie Kinect.

Mark
2010-11-17, 20:24:23
Interessanter wäre, ob man mit 4 Kinects schon ein komplettes 3D Ebenbild von sich erschaffen könnte.

Wer brauch noch diese 3D Avatare wie bei der Wii? In Zukunft ist man selber im Spiel. :O

Dieses Video wurde ja schon gepostet, aber hier nochmal:
http://www.youtube.com/watch?v=7QrnwoO1-8A&feature=player_embedded#

Jetzt stelle man sich 2 oder 3 von den Teilen vor und verrechnet der Signale miteinander :O

Nightspider
2010-11-17, 20:26:54
Dieses Video wurde ja schon gepostet, aber hier nochmal:
http://www.youtube.com/watch?v=7QrnwoO1-8A&feature=player_embedded#

Jetzt stelle man sich 2 oder 3 von den Teilen vor und verrechnet der Signale miteinander :O

Ja das Video kenn ich schon seit (glaube vorgestern) ;)

Deswegen habe ich ja auch gefragt.

|-Sh0r7y-|
2010-11-17, 20:32:52
Ja das Video kenn ich schon seit (glaube vorgestern) ;)

Deswegen habe ich ja auch gefragt.
Hab erst vor wenigen stunden m,it nen kumpel gequatscht und uns gefragt ob man mit 2-4 Kameras perfekt aufeinander abgestimmt nen ganzen Raum erfassen könnte.

Wozu braucht man für Matrix dann noch 200 Kamaras...
Für ne amateur Filmproduktion bestimmt ne nette sache.

Avalox
2010-11-17, 20:32:55
Jaein. Aber ein Teil der Technologie wird in dem System zu 100% benutzt. Bei Kinect Kombiniert mit mit anderen Technologien.

Ne. Es hat ToF überhaupt nichts zu tun.
Es ist eine ganz normale Infrarot empfindliche Kamera.



Ansonsten wäre das Video des Typen weiter oben nicht möglich. Denn dafür muss die Entfernung jedes Punktes im Raum in relation zur Kamera vermessen werden. Was nichts weiter ist als eine TOF Kamera.


Natürlich ist es eine raumtiefen Erfassung, welche allerdings nicht per TOF erfasst wird, sondern eine Bildauswertung des Projektionsmusters entspricht. Einer Helligkeitsverteilung.

Deshalb ist auch für die Auflösung nicht die Auflösung der Kamera entscheidend, sondern die Winkelauflösung des projizierten Musters. Bei TOF ist natürlich die Auflösung der Kamera entscheidend, es gibt auch kein Muster bei TOF.

Das Kinect Muster selber hat nicht die höchste Auflösung und ist vor allen unregelmäßig. Die Objekte bluren deshalb natürlich an den Kanten in die Tiefe hinein.

Mit ToF hat das Kinect System gar nichts zu tun. Für hohe Auflösungen taugt es auch nicht. Aber es ist natürlich spitze für den Zweck und wegweisend günstig im Ansatz.


Ist genau das gleiche wie Kinect.

Nein, bei TOF wird das Objekt angeblitzt. Dann wird die Zeit gemessen, wie lange das Licht zurück bis auf jede einzelne Zelle des Sensors gebraucht hat.
Die Kamera ist so unglaublich schnell, dass sie dadurch ein räumliches Bild erhält.

Zum einen ist TOF unglaublich teuer, günstigere Systeme haben eine ungleich geringere Auflösung als die Kinect Kamera und sind trotzdem immer noch um Größenordnungen teurer.

Dass der Eindruck ähnlich ist liegt daran, dass jedes 3D Bild, welches mit einer Linse für die Raumtiefe aufgenommen wird so wirkt. Gerade, wenn diese wie heute noch mit niedriger Auflösung betrieben werden. Es werden insgesamt zwei Bilder aufgenommen. Eines für die Raumtiefe und ein flaches normales 2D Farbbild. Dann wird das Bild der Raumtiefen genutzt um Objekte auf dem 2D Bild freizustellen, ferner wird aus dem Raumtiefen Bild eine entsprechendes Höhenkarte erzeugt und das 2D Bild als Textur über diese gelegt.

Das Kinect System hat mit TOF rein gar nichts zu tun.

Nightspider
2010-11-17, 20:36:56
Hab erst vor wenigen stunden m,it nen kumpel gequatscht und uns gefragt ob man mit 2-4 Kameras perfekt aufeinander abgestimmt nen ganzen Raum erfassen könnte.

Wozu braucht man für Matrix dann noch 200 Kamaras...
Für ne amateur Filmproduktion bestimmt ne nette sache.

Naja, wenn der Protagonist nicht unscharf oder stellenweise verzerrt dargestellt werden soll, brauch man schon deutlich mehr Kameras. Zumal man mit 4 Cams auf dem Kopf keine "Texturen" hätte.

Mark
2010-11-17, 20:54:45
Naja, aber auch 20 dieser Kameras sind immernoch ein Schnäppchen im Vergleich zu Profiequipment

Nightspider
2010-11-17, 20:56:42
Naja, aber auch 20 dieser Kameras sind immernoch ein Schnäppchen im Vergleich zu Profiequipment

Naja. Die Kinect-Lösung hat aber auch ne schlechte Bildqualität(Auflösung). Vergleichen kann man es ey nicht.

Mark
2010-11-17, 20:58:35
Klar, aber für Hobby-Film-Projekte eine Alternative. Das es sich hier nur um Consumer-Hardware handelt bestreitet ja niemand. Aber vor Kinect gab es eben keine Möglichkeit so einfach an ein Tiefenbild zu kommen

Neomi
2010-11-17, 23:03:53
Interessanter wäre, ob man mit 4 Kinects schon ein komplettes 3D Ebenbild von sich erschaffen könnte.

Wie sollten die einzelnen Geräte denn aussortieren können, wieviel vom zurückgeworfenen Infrarot-Licht vom jeweiligen Gerät stammt und wieviel von den anderen? Der Kinect-Ansatz ist einer, bei dem mehrere Geräte sich nicht ergänzen, sondern gegenseitig stören. Solange jedes Gerät die gleiche Wellenlänge benutzt, wird eine Zusammenschaltung nicht funktionieren.

nino
2010-11-18, 00:46:15
Der Schlüssel ist dort die Wellenlänge des IR Lasers. Infrarotstrahlung wird durch die Atmosphäre sehr nachhaltig absorbiert und gestreut.
Mit Helligkeit meine ich das IR Licht welches auf den IR empfindlichen Sensor der Kamera zurück geworfen wird und dort als Helligkeit des Pixels interpretiert wird. Sichtbar ist das Licht des Projektors natürlich nicht.

Und nicht zu vergessen, dass natürlich Sonneneinstrahlung auch tatsächlich das Kinect stört.


Naja, Sonnenlicht geht schon relativ weit ins IR-Spektrum rein. Und das Problem mit unterschiedlicher Reflektion auf unterschiedlichen Oberflächen ist ja auch noch da.

Laut der Homepage der Entwickler benutzt der Sensor kodiertes Licht. Der Projektor ist an den Ansteuerungschip mit angebunden, also scheint es sich nicht einfach um ein konstantes Muster zu handeln.

Mark
2010-11-18, 00:48:28
Wie wärs mit Polarisationsfilter?

nino
2010-11-18, 09:53:05
Wie wärs mit Polarisationsfilter?

Die Polarisation bleibt ja auf "normalen Oberflächen" eher weniger erhalten. Und alles Störlicht kriegt man damit ja auch nicht weg.

@Avalox:
Hast du nen Artikel dazu gelesen? Mich interessiert echt wo der Trick da mit dem Licht ist. Einfach nur beleuchten und Helligkeit messen klingt für mich nicht wirklich praktikabel. Da wären Leute ja schon viel früher drauf gekommen :D

Avalox
2010-11-18, 12:10:30
Laut der Homepage der Entwickler benutzt der Sensor kodiertes Licht. Der Projektor ist an den Ansteuerungschip mit angebunden, also scheint es sich nicht einfach um ein konstantes Muster zu handeln.

Ich kann mir nur was unter strukturiertes Licht vorstellen. Dieses wird dort aber sicherlich auch gemeint sein.
Hinter strukturierten Licht verbirgt sich letztendlich nur ein Muster welches projiziert wird. I.d.R. werden Streifen projiziert. Die Streifen verrutschen dann perspektivisch auf den beleuchteten Objekten. Dass kann man dann einmal quer und einmal hochkant tun und hat dann aus der Verzerrung dieser Streifen einen guten Eindruck. So lassen sich sehr genaue 3D Abbilder erzeugen.

Man weiss halt, wie diese Streifen(oder allgemein Muster) unverzerrt aussehen sollten und kann deshalb aus der Verzerrung, Breite und Abstand der Lichtstreifen auf die Form und Entfernung des Objektes schliessen.

Nun hatte ich ehrlich auch mit zwei abwechselnden Streifenmustern bei Kinect gerechnet und war ehrlich überrascht "nur" Punkte zu sehen.

Aber letztendlich, wenn man sich dieses überlegt, ist das Punktmuster einfach nur eine einfache Form des Musters. Ein Muster welches man kennt. In dem Fall eben weiss man z.B. dass alle Punkte des Musters gleichgroß sind.

Damit kann man sicherlich auch bei Kinect von strukturierten Licht sprechen, da ja ein Muster eben eine bekannte Struktur projiziert wird. Nun verzerrt dieser Punkt aufgrund des geringen Ausmaße nicht wesentlich auf einer Fläche.
Die perspektivische Verzerrung eines Punktes ist damit letztendlich tatsächlich die Größe. Ist der Punkt näher an der Kamera ist er größer und damit Lichtstärker, als ein entfernter Punkt.

Ich gebe dort Brief und Siegel, es ist die Größe des Punktes, damit die reflektierte IR Lichtmenge und damit die Helligkeit des Pixels. Viel mehr steckt dort gar nicht hinter.

Der Trick und Pfiffigkeit besteht im Projektionsmuster, bzw. im Projektor.

Hast du nen Artikel dazu gelesen? Mich interessiert echt wo der Trick da mit dem Licht ist. Einfach nur beleuchten und Helligkeit messen klingt für mich nicht wirklich praktikabel. Da wären Leute ja schon viel früher drauf gekommen :D

Im Vorfeld hatte ich ein bisschen was gelesen, also die prinzipiellen Ansätze um mit einer(!) Kamera ein räumliches Bild aufzunehmen. Das Kinect Verfahren ist ja im Detail nicht öffentlich bekannt.

del_4901
2010-11-18, 12:37:12
Damit kann man sicherlich auch bei Kinect von strukturierten Licht sprechen, da ja ein Muster eben eine bekannte Struktur projiziert wird. Nun verzerrt dieser Punkt aufgrund des geringen Ausmaße nicht wesentlich auf einer Fläche.
Die perspektivische Verzerrung eines Punktes ist damit letztendlich tatsächlich die Größe. Ist der Punkt näher an der Kamera ist er größer und damit Lichtstärker, als ein entfernter Punkt.
Da es sich um einen Laser handelt und die Perspektive der Kamera gleich der Projektion der Laserpunke ist wird die Kamera keine unterschiedlich grossen oder starken Punkte sehen koennen. Ich denke vielmehr das man die Position im Raum durch die Parallaxe bestimmt wird. Nicht umsonst ist die Kamera so weit vom Projektor entfernt. Die Color Kamera ist uebrigens die in der Mitte, man hat also versucht den Abstand absichtlich so gross zu waehlen.

Und die schwarzen Stellen in der Tiefenerkennung kommen warscheinlich zustande, weil einige Punkte durch die Parallaxe verdeckt werden und nicht mehr auffindbar sind.

Avalox
2010-11-18, 12:47:14
Da es sich um einen Laser handelt und die Perspektive der Kamera gleich der Projektion der Laserpunke ist wird die Kamera keine unterschiedlich grossen Punkte sehen koennen.

Doch gerade weil sich der Strahl nicht großartig auffächert, sind die Punkte unterschiedlich groß in der Aufnahme. Ein Punkt, welcher nahe der Kamera sich befindet wird vergrößert und natürlich Leuchtstärker dargestellt. Wird der Punkt weiter weg projiziert wird er kleiner und leuchtschwächer von der Kamera aufgenommen. Das ist eben die Perspektive.

Die Kamera und der Projektor liegen doch dicht beieinander. Das Kinect Teil hätte doch weit mehr Platz geboten diese zu distanzieren. Noch wichtiger ist es ja, dass die optische und die IR Kamera dichtestmöglich beieinander liegen, da diese ja idealer Weise keinerlei Parallaxe aufweisen sollten. (es natürlich aus praktischen Gründen dann doch tun).


Aber leuchte doch mal mit einem Laserpointer dir auf die Hand, welche du dicht vor dem Gesicht hältst und einmal zur nächsten Straßenecke. Den Punkt in der Hand siehst du viel größer, als den an der Straßenecke. Deshalb wird der Laserpointer ja als Pointer genutzt, dass ist ja der Sinn des Pointers. Das ist auch der Trick hinter dem Kinect Muster.

nino
2010-11-18, 13:47:18
Ich kann mir nur was unter strukturiertes Licht vorstellen. Dieses wird dort aber sicherlich auch gemeint sein.
Hinter strukturierten Licht verbirgt sich letztendlich nur ein Muster welches projiziert wird. I.d.R. werden Streifen projiziert. Die Streifen verrutschen dann perspektivisch auf den beleuchteten Objekten. Dass kann man dann einmal quer und einmal hochkant tun und hat dann aus der Verzerrung dieser Streifen einen guten Eindruck. So lassen sich sehr genaue 3D Abbilder erzeugen.

Man weiss halt, wie diese Streifen(oder allgemein Muster) unverzerrt aussehen sollten und kann deshalb aus der Verzerrung, Breite und Abstand der Lichtstreifen auf die Form und Entfernung des Objektes schliessen.


Wir bauen gerade an unserem Institut so ein spezielles Streifenprojektionssystem auf. Wir arbeiten auch mit einem Laser und einem sehr schmalen Bandpass vor der Kamera, allerdings fällt trotzdem noch jede Menge Umgebungslicht mit auf die Kamera. Deshalb nimmt man bei dem Verfahren mehrere Bilder auf, um natürlich die Genauigkeit zu erhöhen, aber auch um das Umgebungslicht herausrechnen zu können.




Die perspektivische Verzerrung eines Punktes ist damit letztendlich tatsächlich die Größe. Ist der Punkt näher an der Kamera ist er größer und damit Lichtstärker, als ein entfernter Punkt.

Ich gebe dort Brief und Siegel, es ist die Größe des Punktes, damit die reflektierte IR Lichtmenge und damit die Helligkeit des Pixels. Viel mehr steckt dort gar nicht hinter.

Der Trick und Pfiffigkeit besteht im Projektionsmuster, bzw. im Projektor.


Das Problem ist aber auch, dass je nach Winkel die abgestrahlte Lichtmenge stark variert. Wir haben bei uns oft "Spots", die auch noch benachbarte Pixel überbelichten. Wenn man dann das Objekt leicht kippt (vielleicht ein Grad) nimmt die Helligkeit des Pixels schon um über 50% ab. Es gibt da extra teure Sprays, die für bessere Reflektionseigenschaften sorgen.
Ich kann mir nicht vorstellen, dass man das mit einer konstanten Projektion berücksichtigen kann.
Mich würde auf jedenfall mal interessieren, wie hoch die tatsächliche Auflösung der IR-Kamera ist, mit der die Auswertung gemacht wird. Ist die tatsächlich nur genausogroß wie die Auflösung des Tiefenbildes, das an den Host geschickt wird?

Avalox
2010-11-18, 17:05:47
Das Problem ist aber auch, dass je nach Winkel die abgestrahlte Lichtmenge stark variert. Wir haben bei uns oft "Spots", die auch noch benachbarte Pixel überbelichten. Wenn man dann das Objekt leicht kippt (vielleicht ein Grad) nimmt die Helligkeit des Pixels schon um über 50% ab. Es gibt da extra teure Sprays, die für bessere Reflektionseigenschaften sorgen.


Kann mit vorstellen, dass zum einen die verwendete IR Wellenlänge dort einiges an Effekte schon unterbindet und zudem auch Ausreisser schlicht heraus gefiltert werden. Dieses ist ja bei Kinect ganz gut möglich, da ja immer das gesamte Bild auf einmal erfasst wird.

Zum anderen wird schon das verwendete Muster dafür sorgen, dass Spots eben nicht auftreten, oder wenn diese auftreten, eben stark lokal auftreten.

Ihr benutzt doch bestimmt einen sichtbaren Laser?



Mich würde auf jedenfall mal interessieren, wie hoch die tatsächliche Auflösung der IR-Kamera ist, mit der die Auswertung gemacht wird. Ist die tatsächlich nur genausogroß wie die Auflösung des Tiefenbildes, das an den Host geschickt wird?

Zum Anfang war ja mal von 320x200 Pixel die Rede. Inzwischen ist ja VGA im Gespräch, obwohl natürlich dort auch ursprünglich vielleicht gar nicht die Kamera, sondern das Erfassungsmuster vielleicht gemeint war. Die Kamera hat eine MS Produkt Nummer. MS ist seit einiger Zeit eh mit einer eigenen Webcam Produktreihe unterwegs.
Da wird man in Zukunft bestimmt mehr Details noch zu Gesicht bekommen.

Schade, dass niemand mal so richtig Ernsthaft mit dem Kinect Sensor experimentiert. Die meisten Versuche nutzen dann doch das schon komplette Tiefenbild. Dabei ist der Sensor als solches schon sehr interessant.

Avalox
2010-11-21, 14:32:48
Hier mal ein paar interessante Kinect Anwendungen.
Es tut sich doch eine Menge.


Hier mal eine Kobination, aus 3D Brille Kinect und Wii Mote zum beispielhaften Design für Nanostrukturen.

https://www.youtube.com/watch?v=Z5O3eiVMVJk


Eine digitales Gegenstück zur Schattenfigur.

https://www.youtube.com/watch?v=CeQwhujiWVk


Eine 3D Augmented Reality Anwendungen, mit einem Doom 3 Hell Knight auf dem Schreibtisch.

https://www.youtube.com/watch?v=P3gfMXwQOGI


Ein Demo zum malen und gestalten in 3D.

https://www.youtube.com/watch?v=Brpu30vjCa4


Ein Demo zum verorten einer Box im Raum. Diese wird direkt an einen Laserprojektor übertragen, welcher dann der Box folgt und beleuchtet.

https://www.youtube.com/watch?v=Q1heqFVrQGU


Eine Objekterkennung.

https://www.youtube.com/watch?v=cRBozGoa69s


Erzugen einer Live Punkt-Wolke. Vor kurzen noch ein Staun-Effekt in Musikvideos, heute für ein paar Euro zum selber machen.

https://www.youtube.com/watch?v=YcaxSGs5QGo


Eine kleine Kinect Anwendung um eine Beleuchtung zu steuern.

https://www.youtube.com/watch?v=8kiUw0-NKhY

dr_AllCOM3
2010-11-21, 23:31:42
Und wo bleibt der interaktive Kinect-Porno? :D

kunibätt
2010-11-23, 17:11:02
Mal eine Frage:
So eine Technologie wird doch auf kurz oder lang eine Menge Leute im 3D-Modelling-Bereich arbeitslos machen, oder? Wenn man praktisch per Knopfdruck ein 3d-Modell hat, wozu dann noch einen 3d-Grafiker anheuern?
Oder übersehe ich dabei etwas?

nymand
2010-11-23, 21:57:00
Mal eine Frage:
So eine Technologie wird doch auf kurz oder lang eine Menge Leute im 3D-Modelling-Bereich arbeitslos machen, oder? Wenn man praktisch per Knopfdruck ein 3d-Modell hat, wozu dann noch einen 3d-Grafiker anheuern?
Oder übersehe ich dabei etwas?
Weil die Modellierung eines Aliens, ... auch aufwändig ist, wenn du da anfängst was aus nem Block Plastik zu schnitzen

kunibätt
2010-11-23, 22:38:23
Ja für solche Sachen natürlich nicht.
Aber jede menschliche Figur. Jeder Stein, Blumentopf etc.
Ich sehe da schon ein gewisses Problem für den Berufzweig. Vor allem in der Gamebranche, wo die Models nicht 100% überzeugen müssen, und an jedem Cent gespart wird..

Avalox
2010-11-23, 23:01:25
Ja für solche Sachen natürlich nicht.
Aber jede menschliche Figur. Jeder Stein, Blumentopf etc.
Ich sehe da schon ein gewisses Problem für den Berufzweig. Vor allem in der Gamebranche, wo die Models nicht 100% überzeugen müssen, und an jedem Cent gespart wird..

Dort bietet Kinect doch nicht wirklich was neues. Das Bild ist ja zudem noch ausgesprochen grob und blurt an den Rändern noch ungemein aus.
Da gibt es bestimmt bessere Techniken. Zudem Kinect natürlich nur eine Perspektive aufnimmt und natürlich Hohlräume überhaupt nicht ausleuchten kann.

Der Vorteil von Kinect ist eben, dass das gesamte Bild auf einmal aufgenommen wird. Die Szene wird in 3D mit hoher Bildfolge aufgenommen. Für diesen Echtzeitanspruch nimmt man eben auch die Ungenauigkeiten gerne in kauf. Aber als Objektdigitalisierung ist es nicht so prall. Es ist ein Eingabegerät.


@Kinect

Hier noch ein interessantes Video mit einem Besenstiel, ähm Laserschwert.

http://www.youtube.com/user/yankeyan#p/a/u/0/3EeJCln5KYg

Grey
2010-11-24, 10:12:29
Ja für solche Sachen natürlich nicht.
Aber jede menschliche Figur. Jeder Stein, Blumentopf etc.
Ich sehe da schon ein gewisses Problem für den Berufzweig. Vor allem in der Gamebranche, wo die Models nicht 100% überzeugen müssen, und an jedem Cent gespart wird..

3D Scanner gibt es eine Weile länger als Kinect. Bevor solche Technik Modeling obsolet macht werden noch viele Jahre, wohl eher Jahrzehnte, verstreichen. Viel zu unflexibel im Gegensatz zu einer menschlichen Arbeitskraft.

Ganz zu schweigen von fehlender Optimierung, die ohnehin in jedem Fall noch mal manuell gemacht werden muss.

MarcWessels
2010-11-24, 10:57:58
Eine Objekterkennung.

https://www.youtube.com/watch?v=cRBozGoa69sZusammen mit der Vermessungsanwendung kann man sicher auch Folgendes basteln->

"I see a boob." oder "I see a wiener. It's nothing to write home about!"

Dann das ganze Vermessen und in verschiedene Größen einteilen: "I see Cup A", "I see Cup D", "I am not pedobear!" :biggrin:

nymand
2010-11-24, 16:49:35
Zusammen mit der Vermessungsanwendung kann man sicher auch Folgendes basteln->

"I see a boob." oder "I see a wiener. It's nothing to write home about!"

Dann das ganze Vermessen und in verschiedene Größen einteilen: "I see Cup A", "I see Cup D", "I am not pedobear!" :biggrin:

Spätestens wenn das geht, dann ist kinect ein hit :D

Spasstiger
2010-11-24, 21:14:02
Ganz zu schweigen von fehlender Optimierung, die ohnehin in jedem Fall noch mal manuell gemacht werden muss.
Genau. Bis so ein Scan gametauglich gemacht wurde, hat der Artist die reale Szene längst von Hand glaubhaft nachgebaut. 3D-Scanner werden eher dort eingesetzt, wo eine möglichst genaue digitale Kopie gefordert wird, z.B. im Baugewerbe oder bei der Tatorterfassung.

Simon Moon
2010-11-25, 08:07:11
3D Scanner gibt es eine Weile länger als Kinect. Bevor solche Technik Modeling obsolet macht werden noch viele Jahre, wohl eher Jahrzehnte, verstreichen. Viel zu unflexibel im Gegensatz zu einer menschlichen Arbeitskraft.

Wieso eigentlich?
Es sollte doch kein Problem sein, ein Objekt rundum zu filmen, daraus ein Polygonmodelle berechnen und dann die entsprechenden Texturen darauf zu pappen.

Skalieren und in verschieden Formate konvertieren sollten dann bei einem existieren Polygonmodell das geringste Problem darstellen.

Eggcake
2010-11-25, 17:02:01
Weiss nicht ob schon gepostet:

Kinect Controls Windows 7 (http://www.youtube.com/watch?v=M-wLOfjVfVc&feature=player_embedded)

Grey
2010-11-25, 17:09:23
Wieso eigentlich?
Es sollte doch kein Problem sein, ein Objekt rundum zu filmen, daraus ein Polygonmodelle berechnen und dann die entsprechenden Texturen darauf zu pappen.

Wird auch gemacht. Nur ist das Einsatzgebiet begrenzt (bzw. verschieden Scanner für verschiedene Aufgaben und natürlich auch die Größe) und erfordert trotzdem Optimierung von Hand.

Für Mass Effect bspw. wurden Gesichtsanimationen über Scanner aufgenommen (was offensichtlich keine schlechte Idee war) - das hat deren Modeling-Abteilung aber nicht obsolet gemacht.

Es bedarf immer noch viel Feintuning und Optimierung, weil der Computer einfach nicht weiß was er da tut, um es mal simpel auszudrücken. Zumal Scan-Daten i.d.R. HighPoly sind und erst mal intelligent ins LowPoly übertragen werden müssen.

Ist übrigens die gleiche Geschichte, wie auch mit Motion Capture. Da kommen auch keine perfekten Animationen am Ende raus, sondern sehr viel Kram der ziemlich aufwendig bearbeitet werden muss. Der Vorteil (auch bei obigem ME-Beispiel) ist, dass solche Animationen im Regelfall deutlich realistischer sind, als es per Hand möglich wäre.

Nightspider
2010-11-30, 02:49:50
War ja nur eine Frage der Zeit.

3D-Bild mit 2 Kinect's:

http://www.youtube.com/watch?v=5-w7UXCAUJE&feature=player_embedded#!

TheCounter
2010-12-03, 14:55:26
Optische Tarnkappe mit Kinect:

http://www.youtube.com/watch?v=4qhXQ_1CQjg&feature=player_embedded

xL|Sonic
2010-12-03, 23:28:41
Lichtschwert mit Kinect:

http://www.youtube.com/watch?v=3EeJCln5KYg&feature=player_embedded

„Kinect“-Puppenspiel

http://www.youtube.com/watch?v=CeQwhujiWVk&feature=player_embedded#!

TheCounter
2010-12-04, 03:00:06
DaVinchi App mit Kinect:

http://kinecthacks.net/davinci-touchless-kinect/

Kinect Keyboard:

http://www.youtube.com/watch?v=VgLp-KyK5g8&feature=player_embedded

TheCounter
2010-12-08, 21:29:36
Ein Interface das von "Minority Report" inspiriert wurde:

http://www.youtube.com/watch?v=tlLschoMhuE&feature=player_embedded

Eggcake
2010-12-09, 10:46:46
http://www.openni.org/

PrimeSense has decided to release to the world some of its software technology for free (part of it open source, part of it closed source). We're doing this through the website http://www.openni.org

Von PrimeSense kommt u.a. die Technologie hinter Kinect.

Nightspider
2010-12-11, 17:34:35
Autonom fahrendes Kinect-Notebook-Gespann:

http://www.engadget.com/2010/12/10/kinect-gets-own-set-of-wheels-drives-a-car-nothing-can-stop-it/

MiamiNice
2010-12-13, 16:08:34
Ein Interface das von "Minority Report" inspiriert wurde:

http://www.youtube.com/watch?v=tlLschoMhuE&feature=player_embedded


Das finde ich mal phatt. Fand das in dem Film schon extrem beeindruckend wie der Computer gesteuert wurde. Sowas hätte ich gerne wirklich @ home.

Mark
2010-12-13, 17:11:52
gelöscht

Avalox
2010-12-13, 23:47:33
Hol dir einfach ein Kinect und fang an zu programmieren ;)


Gibt auch schon fertige Anwendungen.

Tisch z.B.

http://tisch.sourceforge.net/

Nun auch mit Kinect Unterstützung. Funktioniert aber auch mit einer normalen Webcam. Tisch hat man in einigen Youtube Demos gesehen.

Primär unter Ubuntu aus dem fertigen Repository zu installieren

TheCounter
2010-12-20, 10:42:25
MikuMiku Dance Realtime Motion Capturing:

http://www.youtube.com/watch?v=bQREhd9iT38&feature=player_embedded

|-Sh0r7y-|
2010-12-22, 22:39:18
MikuMiku Dance Realtime Motion Capturing:

http://www.youtube.com/watch?v=bQREhd9iT38&feature=player_embedded
echt klasse was das ein für möglichkeiten eröffnet!

xL|Sonic
2010-12-22, 23:02:43
Beeindruckend ist vor allem die geringe Latenz. Hätte ich Kinect nicht zugetraut.

|-Sh0r7y-|
2010-12-22, 23:29:22
Jedes indi spieleprogramierer team wird sich so ein Teil kaufen.
Einfacher geht es nicht mehr, animationen aufnehmen, nachbearbeiten und fertig.

Nightspider
2011-01-04, 00:37:54
ASUS' eigenes "Kinect" für PC:

http://www.hartware.de/news_50700.html

ASUS macht mit der Firma PrimeSense, die bereits die Kerntechnologie von Microsofts Kinect entwickelten, gemeinsame Sache, um einen Bewegungscontroller für Windows-PCs zu veröffentlichen. Das geplante Ergebnis trägt den Namen WAVI Xtion und nutzt ähnlich Kinect zwei Kameras. ASUS legt es dabei nicht unbedingt auf den Einsatz in Spielen an, sondern möchte das System etwa Heimkino-Fans zur Bedienung ihrer Media-Center schmackhaft machen. Auch ein spezieller App-Store ist für den Bewegungscontroller in Planung.

ASUS und PrimeSense wollen die Community ganz offen zur Entwicklung eigener Applikationen anregen und hoffen auf ähnliche Resultate wie jene, die auf den Open-Source-Treibern für Kinect unter Windows 7 basieren. Die Entwicklerplattform Xtion Pro soll bereits ab Februar zur Verfügung stehen.

Erscheinen WAVE Xtion noch dieses Frühjahr. Ob der Bewegungscontroller nur unter Windows funktioniert oder auch Mac-Betriebssysteme und Linux unterstützt werden, ist noch offen.

|-Sh0r7y-|
2011-01-05, 08:35:13
http://www.youtube.com/watch?v=tKzVMvosK34&feature=youtu.be
Ja wie geil ist das den sowas brauche ich!
#Shinect many ppl ask me about latency, just do the math: #kinect has 30fps, 1000/30 = about 33ms latency. Not very low but not bad :)

33ms ist beim Spielen über eine miditastatur mir zu viel aber bei so einer art von steuerung könnte es grade noch so funktionieren.

xL|Sonic
2011-01-05, 10:39:48
ASUS' eigenes "Kinect" für PC:

http://www.hartware.de/news_50700.html

Da ist aber MS schön blöd wenn sie sich da die Butter vom Brot nehmen lassen, gerade was den MediaCenter Bereich am PC angeht, weil man Kinect nicht offiziell für den PC frei gibt.

Eidolon
2011-01-10, 11:30:25
MS bestätigt Kinect für den PC: http://www.golem.de/1101/80610.html

Hydrogen_Snake
2011-01-10, 11:48:52
(y) Das sollte man in Windows 8 zertifizierte Laptops einbauen.

mapel110
2011-01-10, 11:53:45
Geht da der Stromverbrauch für die Sensorik nicht durch die Decke?! Imo doch eher uninteressant für den mobilen Bereich.

Hydrogen_Snake
2011-01-10, 12:18:09
Kann ich mir nicht vorstellen. Eine Webcam frisst ja auch nicht im nu den Akku leer und läuft nur bei Bedarf. Den kleinen Rest an dedizierter Hardware kann ich mir nicht als horrend im Verbrauch vorstellen.

Nightspider
2011-01-10, 16:03:10
Können die das net wenigstens mit HD-Cams für den PC ausstatten?

Ich will in Skype 720p, brauch also ne extra Webcam und dann nochmal 150 Euro für Kinect, welches ne beschissene Bildauflösung hat? :usad:

Coda
2011-01-10, 16:20:04
Ja für solche Sachen natürlich nicht.
Aber jede menschliche Figur. Jeder Stein, Blumentopf etc.
Ich sehe da schon ein gewisses Problem für den Berufzweig. Vor allem in der Gamebranche, wo die Models nicht 100% überzeugen müssen, und an jedem Cent gespart wird..
Ein Künstler der nicht völlig unfähig ist kann auch ZBrush bedienen und damit ist er sicher schneller als wenn er was schnitzt.

Vor allem kann man dann auch was "dazuschnitzen" und muss nicht immer alles falsche wegwerfen :ugly:

Und überhaupt braucht man dafür kein Kinect. Es gibt schon seit vielen Jahren viel bessere 3D-Scanner. Das ist nichts neues.

Drill
2011-01-13, 21:20:30
Max Payne gespielt mit einer kombination aus Kinect und Wiimote
http://www.youtube.com/watch?v=vqoWxV7d_2A&feature=player_embedded

Mark
2011-01-13, 21:27:13
gelöscht

G.A.S.T.
2011-01-14, 10:30:35
na der Schlüssel zu Move ist die leuchtende Bommel auf dem Griff.

Das Kinect pflastert die Wand mit projizierten Bommeln. Diese können sich zwar nicht von unten nach oben, oder links nach rechts bewegen. Allerdings können diese sich von vorne nach hinten und umgekehrt bewegen. Eben dann wenn sich die "Leinwand", eben das Objekt entsprechend bewegt. Ein Leuchtpunkt welcher nicht mehr auf das Objekt "Mensch" trifft, fällt wieder in die Tiefe zurück.

Es scheint ja schlicht die Helligkeit der 320x200 Pixel Kamera pro Pixel gemessen zu werden. Ein näherer Punkt ist natürlich perspektivisch größer, damit der Pixel heller. Deshalb ist die Anzahl der Graustufen auch mit 16Bit für die Kamera so hoch. Rein von der Auflösung ist die Kamera ja gar nicht in der Lage das Punktmuster aufzulösen. Ist auch gar nicht das Ziel.

Ich glaube eher, dass sowohl die "Helligkeit", als auch die Durchmesser der projizierten Kreise eine Rolle spielen.
Beide Methoden wären allein viel zu unpräzise.

Das Durchmesser-Messung allein nicht reicht, ist eh klar. Das funktioniert soeben bei Move, aber da ist der leuchtende Kreis auch viel grösser.

Bei Kinect könnte vor allem die Messung der "Helligkeit" am Rand eines Kreises eine große Rolle spielen, wenn ein Pixel der Cam nicht vollständig bedeckt wird, sondern nur z.B. zu 50%.
So könnte man es mit der "Helligkeit" im Zentrum des Kreises vergleichen und so den Grad der "Bedeckung" am Rand ermitteln und die Präzision dadurch erhöhen.
Das Reflexionsvermögen der Oberfläche würde ja sonst auch eine Rolle spielen.

Alles was die Software "noch" machen muss, ist aus dem damit freigestellten Bild des Helligkeitsmusters einen menschlichen Umrisses zu erkennen und den Gliedmaßen zuzuordnen.
Bei allen vertikalen und horizontalen Bewegungen (die nichts mit Tiefe zu tun haben) wird die optische Cam bestimmt auch eine Rolle spielen.....ähnlich wie beim Eyetoy halt.

Coda
2011-01-15, 21:59:13
Ich wette darauf, dass nur der Abstand zwischen den Punkten eine Rolle spielt. Es ist nämlich Laserlicht. Das wird in der Entfernung weder großartig breiter, noch dunkler.

Und jetzt? :tongue:

Avalox
2011-01-15, 23:21:11
Ich wette darauf, dass nur der Abstand zwischen den Punkten eine Rolle spielt. Es ist nämlich Laserlicht. Das wird in der Entfernung weder großartig breiter, noch dunkler.

Aber die Laser-Punktgröße in der Winkelauflösung der Kamera nimmt mit zunehmender Entfernung des beleuchteten Objektes ab. (eben weil der Laserstrahl sich gerade nicht aufweitet)

Damit erscheint der Punkt für die Kamera kleiner, je entfernter er auf ein Objekt trifft.

Die Auflösung des Laser-Musters ist ungleich höher als die das aufgenommenen Bildes. Deshalb wird für den Pixel des Sensors ein Mittelwert aus leuchtenden Punkt und dunklen Grund gezogen. Je kleiner der Punkt, je dunkler das Pixel.

G.A.S.T.
2011-01-16, 14:37:30
Ich wette darauf, dass nur der Abstand zwischen den Punkten eine Rolle spielt. Es ist nämlich Laserlicht. Das wird in der Entfernung weder großartig breiter, noch dunkler.

Und jetzt? :tongue:
Wenn man will, dass es breiter wird, dann schon. In den Videos sieht das für mich nicht wie winzig kleine Punkte aus.....kann aber auch an der (mangelnden) Qualität des Videos liegen.

G.A.S.T.
2011-01-18, 23:36:54
Ich wette darauf, dass nur der Abstand zwischen den Punkten eine Rolle spielt. Es ist nämlich Laserlicht. Das wird in der Entfernung weder großartig breiter, noch dunkler.

Und jetzt? :tongue:
Ich hab grade gelesen, dass Kinect nur mit einer Cam-Auflösung von 320 x 240 Pixeln arbeitet. Von daher ist wahrscheinlich, dass tatsächlich der Abstand zwischen den Punkten die entscheidende Rolle spielt.
Allerdings nicht deswegen, weil Laserlicht verwendet wird, sondern weil diese Auflösung einfach zu grob für andere Methoden ist.

Kinect könnte mehr, aber die Übertragung über USB2 lässt nicht mehr zu.
Ich hoffe nur, dass M$ auf USB3 setzen wird, wenn Kinect für den PC kommt.

Mark
2011-01-18, 23:42:22
gelöscht

PHuV
2011-01-19, 00:54:35
Gibt es irgendwie einen Anhaltspunkt, wie die Auflösung und Bildwiederholrate mit der Rechenleistung korrelieren? Mich würde mal interessieren, wie hoch wäre die Rechenleistung bei 1280x720 oder 1920x1080 bei 25/30/50/60/100 Hz? Gerade 1920x1080 60 oder 1280x720 mit 100 Hz wäre doch sehr annehmbar für die Reaktionsgeschwindigkeit. Das wäre immerhin 10 ms im Vergleich zu den 33 ms von Kinect.

mboeller
2011-02-02, 07:14:30
übrigens; falls es noch nicht gepostet wurde:

Kinect, der Spion in deinem Wohnzimmer:

http://market-ticker.org/akcs-www?post=178811

Microsoft will die Bilder/Informationen die sie über Kinect abgreifen an die Werbeindustrie verkaufen......Hoffentlich spielen nicht gar zu viele Leute nackig mit dem Ding....da würden sich sonst einige böse Menschen freuen....

xL|Sonic
2011-02-02, 11:05:11
Wo steht da, dass sie es machen wollen? Da steht nur, dass Kinect für solch einen Zweck einsetzbar wäre, nicht mehr und nicht weniger.

mboeller
2011-02-02, 15:14:10
es bezog sich auf diese Zeilen:


At a recent presentation for investors, Microsoft said the ability to see into consumer's living rooms means advertising opportunities. Kinect's cameras can be used to identify people, or objects. Then share shopper's preferences with advertisers. Brett Gordon teaches Marketing at Columbia University.


Aber du hast recht; momentan ist das nur eine theoretische Möglichkeit. Hab den Text wohl etwas missverstanden. Sorry.

Hydrogen_Snake
2011-03-26, 23:15:31
Sehr interessantes Paper zur Körperteile Erkennung mit Kinnect

http://research.microsoft.com/pubs/145347/BodyPartRecognition.pdf

Mars007
2011-04-02, 12:51:02
Win7 mit Kinect steuern:
http://www.computerbase.de/news/software/2011/april/software-ermoeglicht-kinect-steuerung-am-pc/

Ist ein Anfang, aber den Doppelklick würde man doch leichter mit einer Faust (greifen) umsetzen, anstatt den Arm einen halben Meter nach vorn zu schmeißen.

Ich hatte eher auf etwas gehofft, wo ich mit dem Zeigefinger den Mauszeiger dirigieren kann.
Gibt es auch Freeware in dieser Richtung?

Pana
2011-04-03, 11:09:05
Win7 mit Kinect steuern:
http://www.computerbase.de/news/software/2011/april/software-ermoeglicht-kinect-steuerung-am-pc/

Ist ein Anfang, aber den Doppelklick würde man doch leichter mit einer Faust (greifen) umsetzen, anstatt den Arm einen halben Meter nach vorn zu schmeißen.

Ich hatte eher auf etwas gehofft, wo ich mit dem Zeigefinger den Mauszeiger dirigieren kann.
Gibt es auch Freeware in dieser Richtung?
2/3 der Gesten scheinen überhaupt nicht korrekt interpretiert zu werden. "Sie haben die Kontrolle" passt auf keinen Fall zum gezeigten Video, der kontrolliert da fast nichts.

Timolol
2011-04-04, 08:11:52
april april... :biggrin:

Pana
2011-04-04, 09:27:06
Quatsch. Das ist nicchts besonderes und wird schon länger gemacht. Wenne s ein Aprilscherz ist, dann ein schlechter.

Timolol
2011-04-04, 17:03:49
Schau doch mal aufs Datum :biggrin:

Pana
2011-04-04, 17:56:00
Und alles, was am 1. April gezeigt oder geschrieben wird, ist ein Scherz? Oh man.

Timolol
2011-04-04, 19:51:52
Sorry, das herumgefuchtel mit der rechten angehobenen Hand, die ungenaue Steuerung, das "DUUUU!!! HAST DIE KONTROLLE" und ein Hinweis in den Kommentaren dazu das es ein Aprilscherz ist, war für mich eindeutig.
Gut wenns echt sein soll ist es aber schon ziemlich negative Werbung oder nicht?

P.S. NATÜRLICH ist ALLES am 1 April ein großer Scherz :rolleyes:

Pana
2011-04-04, 20:03:42
Sorry, das herumgefuchtel mit der rechten angehobenen Hand, die ungenaue Steuerung, das "DUUUU!!! HAST DIE KONTROLLE" und ein Hinweis in den Kommentaren dazu das es ein Aprilscherz ist, war für mich eindeutig.
Gut wenns echt sein soll ist es aber schon ziemlich negative Werbung oder nicht?

P.S. NATÜRLICH ist ALLES am 1 April ein großer Scherz :rolleyes:
http://www.youtube.com/results?search_query=Windows+7+kinect&aq=f

Mars007
2011-06-18, 11:50:51
Die offizielle SDK ist endlich draußen:

http://www.computerbase.de/news/consumer-electronics/konsolen/microsoft/2011/juni/microsoft-veroeffentlich-kinect-sdk-fuer-windows/

00-Schneider
2011-08-14, 19:53:08
Ab 3:12 wirds interessant:

http://www.youtube.com/watch?v=quGhaggn3cQ

Mit dem Tiefensensor wird die Umgebung dreidimensional rekonstruiert. Die Texturen erfasst der Fotosensor, am Ende werden dann virtuelle Elemente eingefügt.

josefYY
2011-08-15, 02:08:15
Ab 3:12 wirds interessant:

http://www.youtube.com/watch?v=quGhaggn3cQ

Mit dem Tiefensensor wird die Umgebung dreidimensional rekonstruiert. Die Texturen erfasst der Fotosensor, am Ende werden dann virtuelle Elemente eingefügt.
Cool.
Wenn die Auflösung ein wenig höher wäre, liesse sich das doch bestimmt auch für Content-Creation für Spiele nutzen.

Mars007
2011-10-03, 21:01:16
Ich hab mich mal mit dem KinectSDK auseinander gesetzt.
Da kann man tolle Sachen machen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8964094&postcount=9

TomatoJoe
2011-10-04, 19:20:23
Für jeden den es interessiert, im Gamestop in Stuttgart hab ich das Spiel Kinect Adventures inklusive dem Kinect-Sensor für 49€ gesehen.
Wollte es zuerst mitnehmen aber ich warte noch ab, ob auf der Xbox noch gescheite Games dafür rauskommen.

xL|Sonic
2011-10-04, 19:37:55
Für jeden den es interessiert, im Gamestop in Stuttgart hab ich das Spiel Kinect Adventures inklusive dem Kinect-Sensor für 49€ gesehen.
Wollte es zuerst mitnehmen aber ich warte noch ab, ob auf der Xbox noch gescheite Games dafür rauskommen.

Kinect für 49 Euro? Sicher das das keine Aktion war ala 2 Spiele abgeben?

TomatoJoe
2011-10-04, 19:50:21
Kinect für 49 Euro? Sicher das das keine Aktion war ala 2 Spiele abgeben?
100%.
Bin damit extra zur Kasse und hab mich nur im letzten Moment umentschieden, da ich es nun wirklich nicht brauche.
Der Verkäufer hat mich aber auch darauf hingewiesen, dass es kein externes Netzteil dabei hat, de facto braucht man zum Betrieb eine Slim.

MartinB
2011-10-04, 20:26:31
Dann war es aber ein gebrauchtes, vermutlich auch ohne Kinect Adventures.

Bei reBuy gibt es ebenfalls gebrauchte Kinects, jedoch mit Netzteil und Spiel, fuer knappe 100€

TomatoJoe
2011-10-04, 20:47:54
Gebraucht war es definitiv, Adventures war auch definitiv dabei.
Es war ja das Spiel im Regal mit dem Sticker, dass Kinect mit dabei ist.

Bösewicht
2011-11-13, 10:54:11
:biggrin:
http://www.orderofevents.com/MineCraft/KinectVideos.htm

Mars007
2011-11-13, 21:46:45
Für jeden den es interessiert, im Gamestop in Stuttgart hab ich das Spiel Kinect Adventures inklusive dem Kinect-Sensor für 49€ gesehen.
Wollte es zuerst mitnehmen aber ich warte noch ab, ob auf der Xbox noch gescheite Games dafür rauskommen.

Ich hab mir auch eine Kinect im Gamestop für 49 Euro geholt (Zustand: Gebraucht).
Freue mich schon wie ein kleines Kind: Kinect und Skyrim!

MartinB
2012-02-01, 20:17:55
Sagtmal, heute erschien das offizielle "Kinect for Windows".

Unterscheidet sich das irgendwie in dem Kinect für die Xbox?