Project Soli: Google stellt Mini-Radar für exakte Gestensteuerung vor [I/O 2015]

Tuan Le 6

Im Zuge der Google I/O 2015 hat das Advanced Technologies and Projects-Team von Google (ATAP) die Gelegenheit genutzt, so einige Innovationen vorzustellen. Dazu zählt auch das „Project Soli“, das die Gestensteuerung auf ein völlig neues Niveau heben könnte. Im Kernpunkt steht hierbei ein winzig kleiner Radar-Chip, der selbst mit den Fingern ausgeführte Gesten exakt erkennen kann.

Project Soli: Google stellt Mini-Radar für exakte Gestensteuerung vor  [I/O 2015]

Es ist immer wieder spannend zu beobachten, wie bereits vorhandene Technologien auf eine völlig neue, spannende Art und Weise verwendet werden. Unter dem Namen „Project Soli“ hat das ATAP-Team von Google einen neuen Mikrochip entwickelt, der im Grunde genommen wie ein winzig kleines Radar funktioniert. Dieses dient aber nicht der Lokalisierung von herannahenden militärischen Feinden, sondern vielmehr der Erkennung von Gesten des Nutzers. Wie bei einem normalen Radar werden von dem Mikrochip in hoher Frequenz elektromagnetische Wellen ausgestrahlt, die unter anderem von den Händen des Nutzers wieder zurückgeworfen werden.

Projekt Soli: Radar ermöglicht exakte Gestensteuerung.

Selbst kleinste Fingerbewegungen soll „Project Soli“ erkennen

Durch das Auffangen der veränderten Wellen können dann nicht nur Objekte, sondern  – bei ausreichend hoher Frequenz der Wellen – auch Bewegungen exakt erkannt werden. Das unter „Project Soli“ entwickelte Radar ist sogar so exakt, dass selbst kleine Fingergesten erkannt werden können. Drückt der Nutzer etwa vor einem entsprechenden Radarsensor einen imaginären Knopf, so wird diese Eingabe bereits von dem Chip vernommen und kann zum Beispiel zum Ein- und Ausschalten der Musikwiedergabe verwendet werden. Auch Lautstärke-Regler oder Schieberegler können mit Fingergesten simuliert werden und ermöglichen eine berührungsfreie Steuerung. Dies könnte vor allem für Geräte mit Android Wear von Interesse sein, da die Möglichkeiten zur Integration von Hardware-Knöpfen begrenzt sind und auch der Touchscreen nicht allzu viel Platz für Eingaben bietet.

project-soli-1

In Zukunft wäre es möglich, die meisten Eingaben per exakter Gestensteuerung durchzuführen, ohne dass ausschweifende Bewegungen erforderlich sind. Um Entwicklern die Integration von „Project Soli“ in ihren Apps zu vereinfachen, wird Googles ATAP-Team auch eine Programmierschnittstelle (API) für die innovative Gestenerkennung bereitstellen. Wann wir mit den ersten kommerziellen Produkten auf Basis von „Project Soli“ rechnen können, lies das Team aber nicht verlautbaren. Gleiches gilt zudem auch für „Project Jacquard“, das ebenfalls aus der talentierten ATAP-Feder stammt und smarte Kleidung ermöglichen soll.

via Mashable, Otticamedia

Nexus 6 bei Amazon kaufen *

Zu den Kommentaren

Kommentare zu dieser News

Weitere Themen

* Werbung