Für Links auf dieser Seite erhält GIGA ggf. eine Provision vom Händler, z.B. für mit oder blauer Unterstreichung gekennzeichnete. Mehr Infos.
  1. GIGA
  2. Tech
  3. Apple
  4. Multicam in iOS 13: Apple ermöglicht „Multitasking” für iPhone- und iPad-Kameras

Multicam in iOS 13: Apple ermöglicht „Multitasking” für iPhone- und iPad-Kameras

© GIGA

Zu den vielen kleinen Neuerungen, die es nicht auf die große Bühne der WWDC-Keynote Anfang Juni geschafft haben, gehört ein Feature, das es auf dem Mac schon seit vielen Jahren gibt. Nun ist die Hardware aber auch auf dem iPhone und iPad ausgereift genug, um eine Multicam-Aufnahme in iOS 13 nutzen zu können.

 
iOS 13
Facts 

iOS 13: Multi-Kamera-Aufnahme auf aktuellen iPhones und iPads

Apple präsentierte die neuen Möglichkeiten in iOS 13, die ein aktuelles iPad Pro, iPhone XS/XS Max oder iPhone XR voraussetzen, in einer der Sessions (via 9to5Mac) der WWDC. Diese sogenannten Multicam-Features wurden in der Mac-Welt bereits seit OS X Lion unterstützt, aber erst jetzt erlauben es die Hardwareverbesserungen aktueller iOS-Geräte dies auf den mobilen Begleitern.

Die Möglichkeit zur simultanen Aufzeichnung von Fotos, Videos, Audio, Metadaten und Tiefeninformationen bedeutet beispielsweise, dass Apps gleichzeitigen Zugriff auf die diversen Kameras von iPhone oder iPad haben. So kann eine App etwa gleichzeitig Videos der Kameras auf der Front und Rückseite aufzeichnen. Es kann außerdem auch während einer derartigen Aufnahme zwischen den beiden Kameras umgeschaltet werden.

Es ist dabei auch eine Mischung der beiden rückseitigen Kameras auf dem iPhone XS möglich. Apps können hier also die Daten beider Sensoren gleichzeitig für ihre Zwecke aufzeichnen. Eine der Limitierungen ist aber, dass es weiterhin nicht möglich ist, dass mehrere Apps simultan auf mehrere Kameras zugreifen. Apple selbst setzt diese neuen Features in der Kamera-App von iOS 13 derzeit offenbar noch nicht ein.

Hier sind einige der Neuerungen in iOS 13 und iPadOS 13:

iOS 13: Greenscreen-Effekte leicht gemacht

Am Ende einer weiteren Session, die sich mit den neuen Kamerafeatures in iOS 13 auseinandersetzt, beschreiben Apples Mitarbeiter außerdem neue Fähigkeiten, welche Bestandteil des Porträtmodus sind. Mit Hilfe der sogenannten „semantic segmentation“ können Fotos, die im Porträtmodus aufgenommen wurden, in diverse Bestandteile zerlegt werden.

Bildquelle: Apple

Die neuen Softwarefunktionen erlauben in Kombination mit aktueller Hardware die Erkennung von Haaren, Haut und Zähnen. Als konkretes Beispiel zeigte Apple die Möglichkeit, Personen aus Porträtfotos in andere Umgebungen zu bringen und dabei gleichzeitig auch Veränderungen an der Person vorzunehmen. Der Effekt ähnelt dabei einer Greenscreen, bei dem beispielsweise der Hintergrund ausgetauscht werden kann. Da Apples Software aber auch Haare, etc. erkennt, können diese Details separat angepasst werden.