Das Beste am Film „Minority Report„? Nach Aussagen vieler die damals revolutionäre Gestensteuerung, die Tom Cruise in einer Szene verwendet. Der Film kam 2002 in die Kinos und spielt im Washington D.C. des Jahres 2054. Spätestens seit der Einführung von Microsofts Game-Controller Kinect weiß man: Wenn man in 40 Jahren noch eine solche Steuerung verwendet, wie Cruise in dem Film, dann hätte man einiges falsch gemacht. Ein beeindruckendes Video des Herstellers Leap Motion lässt den Controller in dem Film schon heute wie Kindergeburtstag aussehen.
The Leap ist eine kleine, unscheinbare Box, kaum größer als ein USB-Surfstick, der sich mit einem Rechner verbindet und Bewegungen von Fingern, Händen oder Eingabegeräten wie Stiften abtastet. Diese Erkennung ist schnell, mit 1/100 Millimeter sehr filigran und laut den Herstellern damit 200 Mal genauer als vergleichbare Produkte auf dem Markt, sprich: Microsoft Kinect. Laut dem Video ließe sich The Leap auch als Game-Controller verwenden. Mit entsprechenden Fingerbewegungen etwa könnte man in einem Spiel eine Waffe abfeuern. Das System könnte eine Zehn-Finger-Eingabe erkennen. Und aus Spaß zeigen die Entwickler außerdem, wie man Angry Birds mit Essstäbchen spielen könnte.
Hinter dem Projekt steht der ehemalige NASA-Mitarbeiter David Holz, den die „Financial Times“ als „Mathegenie“ bezeichnet. Während nur Standardkomponenten in der Box eingebaut sind, käme es laut Holz und Mitgründer Michael Buckwald vor allem auf die mathematischen Berechnungen an, die man für die Software gelöst habe. In den Verkauf kommen soll die Box im Dezember. Damit alles schnell an den Start gehen kann, hat Leap Motion mit seinen 20 Mitarbeitern eine Finanzierungsrunde in Höhe von 14,5 Millionen US-Dollar abgeschlossen. Unter anderem von Andreessen Horowitz. Kostenpunkt der Box: knapp 70 Dollar; sie soll mit Mac OS X, Windows 7 und Windows 8 kompatibel sein. Ein Entwickler-Kit steht jetzt schon zur Verfügung. Wo ist der Haken, werdet ihr fragen?
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Mitarbeiter*in (m/w/d) für Social Media, Öffentlichkeitsarbeit und Städtepartnerschaft (m/w/d) meinestadt.de in Sachsenheim |
||
Journalist (m/w/d) als Leiter PR und Social-Media NOMOS Glashütte/SA Roland Schwertner KG in Berlin |
Zunächst einmal ist das Demo-Video vermutlich gestellt, auch wenn „Financial-Times“-Blogger Chris Nuttall angibt, eine Vorführung von Holz wäre „beeindruckend“ gewesen. Noch ist über die technischen Eigenschaften wenig bekannt. Und außerdem dürfte sich die Box nicht kabellos mit einem Rechner verbinden, wie es auf den Werbefotos den Anschein hat. Laut Nuttall muss man The Leap mit einem fossilen USB-Kabel anschließen, was immerhin die Frage nach der Batterielaufzeit erübrigt. Aber wenn das schon alle Nachteile sind, wenn die Box wirklich so funktioniert wie in dem Video und dazu noch derart preisgünstig zu haben ist, dann dürfte man den Anbietern „The Leap“ aus den Fingern reißen. Und im Jahr 2054 reichen dann vielleicht schon eine Augenbewegung oder Gedanken, um etwas zu steuern.
(Jürgen Vielmeier, Bild: Leap Motion)
Das Video sieht schon sehr gestellt aus. Ich glaube auch das sich Bedienkonzepte heute nicht mehr mit Minority Report messen müssen seit es die Kinect gibt.
Ich glaub viel ehere das der neue The Avengers und insbesondere die Technik des Tony Starks unsere Messlatte wird 🙂
Warum ist das beeindruckender als die Gesten in Minority Report?
Es ist cool, wenn es genauso funktioniert, wie dargestellt, aber den gravierenden Unterschied sehe ich nicht…
Wesentlich relevanter als der überflüssige Vergleich sind die Umgebungsbedingungen unter denen das System funktioniert.
Was sind dazu die Fakten?
Arbeitet es stereoskopisch? Gibt es ein Entwicklungskit?
Bitte auf Qualität und nicht Coolness achten!
Wann kommt das erste Smartphone mit einem solchen Sensor? Dieses System dürfte das Ende der Tabs sein – wer will da noch mit solch einem Brett auf der Couch sitzen? Damit wird der (Internet-)TV wieder hipp. 😉
Ernsthaft: Ich kann mir nicht vorstellen, dass das Video nicht frisiert ist.
[Achtung, Ironie]
Minority Report war doch eine Behörde, natürlich hinken die mit ihrer Technik um mind. 10-20 Jahre hinterher 😉
[…] Basic Thinking (Blog) […]
Hmm … um das in dem Video alles machen zu können, sind mindestens zwei LEAP notwendig. Denn in manchen Szenen hat der Sensor Gesten erkannt, die eigentlich durch die zweite, darunter gehaltene, Hand verdeckt wären. Oder strahlt der so stark, dass er durch die Hände hindurch schauen kann? 🙂
So ergeben sich zwei Möglichkeiten: entweder das Gerät bekommt probleme, sobald es eine Hand nicht vollständig sehen kann, oder man hat einen zweiten Sensor, der auf dem Monitor steht und waagerecht abtastet. Dann kann man die Hände auch problemlos übereinander halten.
Aber wenn das Gerät so gut wird wie im Video dargestellt, ist mir das 70$ und sogar 70 Euro wert.
Würde ich kaufen.
Das Video ist echt beeindruckend. Wenn das echt ist dann kennt ich meine nächste Investition schon.
Vielleicht hab ich es ja überlesen, aber wie funktioniert das Ding jetzt? So ein Klötzchen muss ja auch irgendwie meine Gesten verstehen und da kann es schon interessant sein, ob es nun optisch, akustisch oder wie auch immer funktioniert.
Das war ja sowas von klar, dass das irgendwann kommen wird 🙂
Ich freu mich schon richtig drauf, wenn diese Technik serienmäßig und ausgereift verfügbar ist.
Der gravierende Unterschied zu Kinect besteht allerdings im Abtastbereich:
Während bei Kinect ein extrem großer Bereich abgetastet wird, kann diese kleine Box nur 0,113 Kubikmeter abdecken.
@Simon: -> Kommentar des Tages. YMMD. 🙂
https://twitter.com/#!/basicthinking/statuses/204922236786851841
Kleiner Tippfehler – MaC OS X 😉 Ich vertippe mich auch oft und schwups landet der allseits bekannte deutsche Name „Max“ in den Beiträgen.
Wann blickt endlich mal jeder Tech-Blogger, dass jedes blöde Demo-Video solang Ente ist, bis es jemand unabhängig die Echtheit bestätigt hat. Wenn das Ding so funktionieren würde, gäbe es mehr als ein Scharlatan-Video…
Blöd nur, dass Simons „Post des Tages“ gar keine „Ironie“ enthält 😉
@Niklas H.: Danke! Ist korrigiert.
Also es ist schon beeindruckend, nur noch sehr utopisch solch Sensorik etc. in so einem kleinen Ding zu packen und damit die BEwegungen richtig zu erkennen.
Zwecks Kinect habe ich einen Artikel geschrieben. Siemens hat die Kinect umprogrammiert und auf Handgesten spezialisiert, somit kann im OP gearbeitet werden.
Wer den Artikel lesen möchte: http://www.geld-und-welt.de/auf-dem-weg-zum-natural-user-interface-teil3-die-spielekonsole-im-op/
Ich denke die Kinect wird erstmal ein gutes Maß bleiben. Diese kommt übrigens bald für den PC heraus, somit werden auch dort einige Programmiererherzen schneller schlagen 😉
Mit Vorsicht zu geniessen…
https://plus.google.com/u/0/103152505287187486368/posts/6B19iBD1ejt
[…] A Leap into the future with 3D gestures Neuerdings über Leap Basicthinking über Leap Aus derselben Sendung Bye bye Blogspiel Die Ökonomie der Nutzerdaten: Soziale Netzwerke als […]
Tolle Sache,
endlich machen die Leute nicht nur in der Glotze , sondern auch vor der Glotze den Hampelmann……… 😉
Das Video ist nicht echt. Die Schatten lassen sich in der Box nicht rausrechnen und auch die Armoberseite kann nicht berechnet werden, hierfuer sind die Winkelschatten einfach zu groß. Technisch wird aktuell wohl Gestigon das Mass der Dinge bei der Gestenerkennung (gerade als Embedded Solution) sein. Aber die gehen aktuell nicht im den Consumer Electronic Markt, sondern nur B2B. Dafuer ist das System aber auch Smart Phone- und Tablet-tauglich. Bei youtube gibt es ein paar Videos von den Jungs. Nicht so cool gemacht wie The Leap, aber glaubhaft, was den Stand der Entwicklung angeht.
[…] eine Projektionsfläche und mit Gesten steuert man durch Menüs. Es erinnert durchaus ein wenig an Minority-Report, wenn Prof. Dr. Weber mit Gesten der Hand während des Gesprächs die dargestellten Inhalte […]