Dadurch entstand eine Verbindung zwischen seiner Hand und dem Bildschirm. Auf einmal ließen sich auf einem Klebezettel Nachrichten schreiben, die gleichzeitig digital dargestellt wurden. Davon ausgehend experimentierte Pranav Mistry. Die Sensoren an den Fingern verteilte er am Ende auf vier Klebebändern, die er an Zeigefinger und Daumen beider Hände anbrachte – ein rotes, ein gelbes, ein blaues und ein grünes. Die „intrusive technology“ an den Fingerspitzen verband er mit einer mobilen Version der „non-intrusive technology“. Dafür band er sich eine Kombination aus Kamera, Mini-PC und Projektor um den Hals, die die Fingerbewegungen aufnimmt und in eine digitale Sprache übersetzt.
Die Möglichkeiten dieser Technologie ließ das Publikum beim TED-Talk jubeln: Auf einmal konnte Mistry jede Oberfläche als Bildschirm nutzen – die weiße Wand, ein Blatt Papier oder der Oberarm. „Die Kamera verfolgt unsere Bewegungen und mit einem Projektor wird die digitale Information wieder ausgespielt“, erklärt Mistry. Über den Projektor lassen sich auch Karten an die Wand werfen, die man dann mit einfachen Fingerbewegungen verkleinern und vergrößern kann. Formt der Wissenschaftler Daumen und Zeigefinger zu einem Rechteck, wird die Bewegung erkannt und ein Foto geschossen. Die Bilder lassen sich dann wieder an jede Wand werfen und als Bildergalerie anzeigen.
Wir brauchen was zum Anpacken
Mit der SixthSense-Technologie ist ein Szenario wie im Hollywood-Blockbuster Minority Report längst Realität geworden. Doch bis heute sieht man die Menschen nicht wild durch die Straßen gehen, sondern mit geneigtem Kopf auf ihr Smartphone schauen. Im Gegensatz zu etlichen Marketingabteilungen großer Unternehmen oder engagierten Startups ist die deutsche Forschung skeptisch, dass die Gestensteuerung tatsächlich die Touch-Technologie ablösen wird.
„Wir brauchen das haptische Feedback bei der Interaktion mit Gegenständen. Das fehlt beim Greifen in den luftleeren Raum“, sagt Gero Herkenrath, Wissenschaftlicher Mitarbeiter am Lehrstuhl Medieninformatik und Mensch-Computer-Interaktion an der RWTH Aachen. „Das Konzept, Dinge anzufassen, um sie zu manipulieren, hat sich bewährt.“ Um das zu untersuchen, wurden Studien zur Büroarbeit durchgeführt. Dazu forderten die Forscher Probanden auf, Tastaturen zu nutzen, die einfach auf die Tischoberfläche projiziert wurden. Deutlich schneller als bei der Standardtastatur drifteten im Versuch die Hände der Tippenden ab. Da sie keine Tasten fühlen konnten, an denen sie sich wieder hätten orientieren können, wurde der Schreibfluss durchbrochen. „Blind korrigieren war den Versuchspersonen nicht möglich“, sagt Herkenrath.
Dass der Wunsch der Menschen nach einem etwas "Fühlbarem" groß ist, hat auch die Industrie erkannt. Das amerikanische Unternehmen Tactus hat auf der diesjährigen CES in Las Vegas angekündigt noch in diesem Jahr Tablets und Smartphones herauszubringen, die eine fühlbare Tastatur auf dem Display integriert haben.