1. Platz bei den Hugo-Geiger-Preisen: Die Hand als Joystick

Presseinformation /

Georg Hackenberg vom Fraunhofer-Institut für Angewandte Informationstechnik FIT entwickelte ein Multi-Touch Interface, bei dem ein 3-D-Kamerasystem Gesten bis hin zu den Bewegungen einzelner Finger aufnimmt und in Echtzeit verarbeitet und so die Technik der Gestenerkennung stark verbessert.

Bevor ein neues Automodell von den Bändern rollt, existiert es zunächst als virtuelles Modell. In einemCave – einem Raum für die virtuelle Darstellung von Objekten – betrachten die Entwickler es von allen Seiten, »setzen« sich hinein, prüfen und verbessern. Sind beispielsweise alle Schalter gut erreichbar? Bisher interagieren die Entwickler dabei über einenJoystick mit dem Computer, der das virtuelle Automodell anzeigt. Künftig könnten sie auf ein solches Hilfsmittel verzichten – allein ihre Hand soll ausreichen, um dem Computer die entsprechenden Signale zu geben. Möglich macht dies ein Multi-Touch Interface, das Georg Hackenberg während seiner Masterarbeit am Fraunhofer-Institut für Angewandte Informationstechnik FIT entwickelte. Mit seiner Arbeit belegt er den 1. Platz bei den Hugo-Geiger-Preisen. »Wir verwenden eine Kamera, die statt einer Farbinformation Pixel für Pixel angibt, wie weit dieser Punkt von der Kamera entfernt ist. Dies geschieht im Wesentlichen über eine Art Graustufenbild, bei dem der Grauton die Entfernung der Objekte darstellt. Die Kamera liefert also eine dreidimensionale Information, die das System über spezielle Algorithmen auswertet«, erklärt Hackenberg.

Die Hauptarbeit Hackenbergs bestand darin, die entsprechenden Algorithmen zu entwickeln. Sie sorgen dafür, dass das System eine Hand zunächst einmal erkennt und in einem weiteren Schritt ihre Bewegungen verfolgen kann. Das Resultat: Das 3-D-Kamerasystem nimmt Gesten bis hin zu den Bewegungen einzelner Finger auf und verarbeitet sie in Echtzeit. Bisher konnten vergleichbare Verfahren mit Fingerunterstützung nur wahrnehmen, wie sich Hände in der Bildebene bewegen – die Tiefeninformation, also wie weit die Hand vom Kamerasystem entfernt ist, konnten sie nicht auflösen. Die Frage, mit welchem Objekt die Hand interagiert, war daher oft schwer zu beantworten. Betätigt sie den Scheibenwischer oder schaltet sie das Radio ein? Kleine Bewegungen der Hand wie zum Beispiel Greifen lassen sich bisher kaum in Echtzeit wahrnehmen – oder nur mit sehr großem Rechenaufwand. Für das neue System ist das kein Problem.

Interessant ist die Gestensteuerung auch für Computerspiele. Einen Prototypen der neuen Gestenerkennung gibt es bereits. Nun wollen die Forscher Schwächen im Algorithmus ausbessern und erste Anwendungsstudien durchführen. In etwa einem Jahr könnte das System aus technischer Sicht marktreif sein, hofft Hackenberg. Mittelfristig planen die Forscher, es so weiterzuentwickeln, dass es auch in mobilen Anwendungen eingesetzt werden kann – und somit den Weg in Laptops und Handys findet.