Apple möchte die in der iCloud gespeicherten Fotos seiner Nutzer automatisch scannen lassen. Sollten sich auf dem iPhone oder iPad Bilder finden lassen, die der Algorithmus als „problematisch“ einstuft, könnte eine entsprechende Meldung erfolgen.
Update vom 6. August 2021: Apple hat bestätigt, dass bei iOS 15 und iPadOS 15 eine neue Funktion eingeführt wird, bei der gespeicherte Fotos auf kinderpornografisches Material hin untersucht werden soll. Apple gibt an, dass dabei „die Nutzerprivatsphäre im Blick“ behalten wird. Obwohl der automatische Scanvorgang auf den iPhones und iPads selbst geschieht, sollen nur solche Bilder analysiert werden, die in der iCloud gespeichert sind. Falls hier „ein bestimmter Grenzwert“ überschritten wird, erfolgt eine manuelle Untersuchung durch Apple und eine mögliche Meldung an die Behörden (Quelle: Apple).
Originalartikel:
Apple: Automatischer Foto-Scan bei iOS?
Der Sicherheitsforscher Matthew Green hat eigenen Angaben nach eine Bestätigung darüber, dass Apple in Zukunft auch lokal gespeicherte Fotos auf möglichen Kindesmissbrauch hin automatisch scannen möchte. Hier sollen bekannte Fingerabdrücke und Hashs illegaler Bilder zum Einsatz kommen und mit Fotos der Nutzer in der Camera Roll verglichen werden (Quelle: Matthew Green).
Green zufolge soll bei einer positiven Rückmeldung des Algorithmus anschließend eine Beurteilung durch einen Menschen stattfinden. Apple selbst hat sich noch nicht zu dem Thema geäußert.
In einem ersten Schritt soll sich der Algorithmus auf Fotos konzentrieren, die in der iCloud ohne Ende-zu-Ende-Verschlüsselung gespeichert sind. Möglich wäre dann eine Ausweitung auf verschlüsselte Medien, wie es Ermittlungsbehörden schon länger fordern. Letztlich könnten dann auch die ausschließlich lokal gespeicherten Fotos automatisiert gescannt werden.
Im Video: Das sind die besten Features des iPhone 12:
Apples Foto-Scan: Missbrauch nur eine Frage der Zeit
Während der Kampf gegen Kindesmissbrauch und gegen die Verbreitung entsprechender Fotos ein sehr ehrenwertes Ziel ist, kann ein Missbrauch der Technologie selbst nur eine Frage der Zeit sein. Insbesondere in autokratischen Ländern könnten Regierungen den automatischen Scan auch auf politisch unliebsame Bilder erweitern. Oppositionelle könnten dann mit Sanktionen rechnen, nur weil sie entsprechende Bilder auf ihrem Smartphone oder Tablet gespeichert haben. Bei der Überprüfung dürften auch falsch-positive Warnungen entstehen, die für Nutzer echte Konsequenzen haben.