Noch können wir mit unseren Smartphones zwar nicht so sprechen, wie die Crew der Enterprise mit dem Schiffscomputer, aber zumindest Google tüftelt weiterhin hart an einer Zukunft à la Star Trek. In Android M hat der Suchmaschinenbetreiber dazu eigenes eine neue Programmierschnittstelle (API) bereitgestellt, mit der auch Apps von Drittanbietern über Sprache gesteuert werden können. Dank der neuen „Voice Interactions“ soll zukünftig eine regelrechte Unterhaltung zwischen Nutzer und Anwendung möglich sein. 

Die „Voice Interactions“ sind so etwas wie die natürliche Weiterentwicklung der „Voice Actions“, die Google für Apps von Drittanbietern bereits Anfang Mai vorgestellt hat. Durch die in Android M neu eingeführte Programmierschnittstelle wird allerdings die Funktionalität erheblich erweitert. War es vorher lediglich möglich, Apps von Drittanbietern zu starten und beispielsweise mit dem Sprachbefehl „Ok, Google: Shazam this Song“ ein interessantes Lied zu identifizieren, sind dank der „Voice Interactions“ Dialoge zwischen Nutzer und Anwendung durchführbar.

Das im Einführungsvideo zum neuen API demonstrierte Beispiel verdeutlicht den Nutzen. Dort kommuniziert ein Software-Entwickler Googles mit der beliebten Musik-App TuneIn Radio. Zunächst forderte der Entwickler Google auf, Musik auf TuneIn abzuspielen (Übersetzung von uns): „OK, Google: Spiele Musik auf TuneIn.“ Anschließend erwidert das Gerät: „Welches Genre würden Sie sich gerne anhören?“, woraufhin der Entwickler dann „Klassik“ antwortet und Google den Dialog mit „Klassische Musik wird abgespielt“ beendet. Diese Art von – zugegebenermaßen kurzer – Konversation, war bis dato nicht möglich, soll mit den neuen „Voice Interactions“ aber gang und gäbe werden.

Bilderstrecke starten(23 Bilder)
Googles Friedhof: 23 Projekte, die vom Mega-Konzern zu Grabe getragen wurden

Google Voice Interactions im Video

Introducing Google Voice Interactions – Google I/O 2015.

Google Voice Interactions: Einblick in die Technik

google-voice-interactions-1

Der Einblick in die dahinterliegende Technik ist besonders interessant. Begonnen wird beim Hotword „Okay, Google“, um das Smartphone zum Zuhören zu bewegen. Anschließend wird mittels Natural Language Processing (NLP) und dem Knowledge Graph entschieden, ob der Nutzer eine Android-App starten oder Suchergebnisse angezeigt bekommen werden möchte. Ist Ersteres der Fall, wird die entsprechende Anwendung samt Konversationsmodus gestartet. Andenfalls werden dem Nutzer die relevantesten Suchergebnisse angezeigt.

Entwickler können dank des neuen API eine Reihe von unterschiedlichen Dialogmöglichkeiten in ihre Apps integrieren. Dazu gehört beispielsweise die Abfrage nach unterschiedlichen Antworten oder auch explizite Bestätigungen. Im oben genannten Beispiel wurde nach der Aufforderungen, Musik auf TuneIn Radio abzuspielen, nachgefragt, welches Musikgenre gewünscht wird. Die expliziten Bestätigungen sind hingegen dann vom Nutzen, wenn etwa eine Anwendung nicht-jugendfreies Material abspielen beziehungsweise anzeigen möchte. Ein weiterer Einsatzzweck für die expliziten Bestätigungen wären Aktionen, die eventuell Kosten verursachen – zum Beispiel das Wählen einer Servicenummer oder der Download von In-App-Käufen.

Quelle: Google Developers, Dianne Hackborn@Google+, via: SmartDroid

Nexus 9 bei Amazon bestellen

Hat dir dieser Artikel gefallen? Schreib es uns in die Kommentare oder teile den Artikel. Wir freuen uns auf deine Meinung - und natürlich darfst du uns gerne auf Facebook oder Twitter folgen.