Google hat eine Partnerschaft mit Movidius bekanntgegeben. Das Startup aus dem Silicon Valley hat sich auf die Herstellung energieeffizienter Chips spezialisiert, die Bilderkennung auf Basis neuronaler Algorithmen praktizieren. Google plant, einen MA2450 genannten Movidius-Chip in zukünftige Hardware-Produkte zu integrieren.

Handy rausholen, auf dein Gegenüber richten und schon weiß es, wer es ist und du kannst ihm das Geld für die Pizza mit einem Tap überweisen. Oder: Ein Blinder kommt in einen unbekannten Raum, hält sein Smartphone vor sich und das Gerät warnt ihn vor einer Treppe, die sich 3,5 Meter vor ihm befindet. Dank einer neuen Partnerschaft will Google Smartphones und andere Geräte mit speziellen Chips ausstatten, die solche Technologien möglich machen - dank Offline-Bilderkennung.

Google hat mit Movidius bereits für Project Tango zusammengearbeitet: Die Tango-Geräte sind in der Lage, Räume dreidimensional zu erfassen. Abgesehen davon ist Mountain View stark an neuronalen Netzen und anderen Maschinenlern-Algorithmen interessiert, die erst in den letzten Jahren entwickelt wurden, um Computersystemen neue Formen der Mustererkennung beizubringen. Neuronales Lernen entspricht stärker dem Erkennen und Lernen vom menschlichen Gehirn. Dafür sind stark parallelisierte Berechnungen erforderlich, die mit traditionellen CPUs nur sehr ineffizient möglich sind – in der Regel werden hierfür Grafikkarten-Cluster verwendet.

Bilderstrecke starten(23 Bilder)
Googles Friedhof: 23 Projekte, die vom Mega-Konzern zu Grabe getragen wurden

Video: Movidius und Google bringen Maschinenintelligenz auf Geräte

Movidius and Google bring Machine Learning to Devices

Die Erkennung des Inhalts von Bildern, die über Google Fotos hochgeladen werden, funktioniert bereits jetzt auf Basis von neuronalen Netzen. Damit ist es beispielsweise möglich, im eigenen Google Fotos-Account nach Begriffen wie „Hund“, „Blume“ oder „Schnee“ zu suchen, woraufhin die Suche Fotos ausspuckt, die entsprechende Motive zeigen. Selbst Personen kann Google so erkennen. Diese Mustererkennung wird bislang über die Cloud durchgeführt, also auf Googles Servern analysiert und ausgewertet.

In seiner Übersetzer-App nutzt Google seit etwa einem Jahr aber bereits ein solches Verfahren, um offline Texte zu erkennen und live zu übersetzen – ohne dass dafür eine Verbindung zu einer Server-Infrastruktur notwendig wäre. Mit dem Movidius-Chip wird es möglich sein, derart komplexe Bildanalysen verstärkt ohne Verbindung zu Servern direkt auf dem Gerät durchzuführen – energieeffizient und wesentlich schneller als bisher.

Auch andere Einsatzzwecke sind mit dem Movidius-Chip denkbar, etwa Menschen mit eingeschränkten Sehfähigkeiten per Smartphone-Kamera eine neue Möglichkeit der Außenwahrnehmung zu eröffnen, andere Personen anhand ihrer Gesichter zu identifizieren, beispielsweise um Geld-Transaktionen zu verifizieren oder Verkehrszeichen zu erkennen und auszuwerten. Davon könnten auch Googles selbstfahrende Autos profitieren.

Die Möglichkeiten, die solche Hardware in Verbindung mit Smartphones bietet, sind momentan noch kaum abzuschätzen; natürlich bieten sie aber auch Angriffsfläche für die Sorgen von Datenschützern – denn ein neuronales, „crowdgesourcetes“ Überwachungsnetzwerk rückt mit solcher Technologie zumindest theoretisch in den Bereich des Möglichen. Und die wachsenden wissenschaftlichen Bemühungen, menschliche Emotionen zu erkennen, die mit diesem Chip stark vereinfacht würden, könnten schlimmstenfalls an Stimmungen angepasste Werbebotschaften oder sogar emotionaler Manipulation Tür und Tor öffnen. Hier ist es, bei allen sinnvollen Einsatzzwecken, eine gesamtgesellschaftliche Aufgabe, Grenzen zu ziehen und durchzusetzen.

Quelle: Movidius-Pressemitteilung, Movidius @ YouTube, via Wall Street Journal, The Verge

Frank Ritter
Frank Ritter, GIGA-Experte.

Ist der Artikel hilfreich?