Nachdem ich heute den Techcrunch Artikel über den Erfolg der Gestensteuerung auf der Apple Watch gelesen habe, habe ich mich an meine kurze Testzeit mit der Apple Watch erinnert. Am meisten gestört hat mich, dass ich auf der Apple Watch immer mit einer Hand das Display berühren musste um Nachrichten anzusehen, weiterzublättern oder zu bestätigen. Und intuitiv habe ich mit den Augen gezwinkert oder mit leichten Luftstössen aus Mund und Nase die Uhr und gehofft, die Uhr können es mit irgendwelchen Sensoren erkennen bevor ich wieder meinen Finger raushole.
Ich bin überzeugt, dass gerade bei Wearables die Gestensteuerung noch viel stärker in diese Richtung gehen wird. Nicht nur das Armgelenk drehen um die Uhr zu aktivieren, vielleicht kann ich in Zukunft durch leichtes Anheben des Zeigefingers an der Uhrenhand durch eine Auswahl blättern oder durch Augenbewegungen oder die Atemtechnik. Auf jeden Fall sind wir hier noch lange nicht am Ende der Entwicklung und ich bin überzeugt, dass Touchschnittstellen auf Smartwatches nicht sehr lange existieren werden.
Vielleicht sollte ich schon mal ein Patent auf eine atemgesteuerte Benutzerschnittstelle anmelden.