Offener Brief: Bürgerrechtler kritisieren Apples Überwachungspläne

Andreas Frischholz
138 Kommentare
Offener Brief: Bürgerrechtler kritisieren Apples Überwachungspläne

Der Protest gegen Apples Überwachungspläne geht weiter. Mehr als 90 Bürgerrechtsorganisationen fordern in einem offenen Brief, der Konzern dürfe nicht das System implementieren, um auf den Geräten der Nutzer nach kinderpornografischem Material zu suchen. Die Sorge: Die Überwachung könne ohne Weiteres ausgeweitet werden.

So heißt es in dem offenen Brief (PDF): „Obwohl dieses System dem Schutz von Kindern dienen und die Verbreitung von Material über sexuellen Kindesmissbrauch eindämmen solle, sind wir besorgt, dass diese Technologie freie Meinungsäußerungen zensieren, die Privatsphäre und die Sicherheit von Menschen auf der ganzen Welt bedrohen und katastrophale Folgen für viele Kinder haben.“ Zu den unterzeichnenden Gruppen zählen das Center for Democracy & Technology (CDT), die ACLU, die PEN America, die Electronic Frontier Foundation (EFF), Privacy International sowie weitere Gruppen aus Europa, Asien, Australien und Amerika.

Apple plant Einsatz von zwei Systemen

Konkret plant Apple den Einsatz von zwei Verfahren. Kinderpornographisches Material (child sexual abuse material – CSAM) will Apple aufspüren, indem man die Hash-Werte von Bildern analysiert, die Nutzer in die iCloud hochladen wollen. Diese Werte werden mit Datenbanken verglichen, die Hash-Werte von bekannten kinderpornografischen Inhalten enthalten. Solche Datenbanken betreiben Kinderschutzorganisationen. Kommt es zu einem Treffer, wird das Bild markiert und dann so verschlüsselt, dass Apple die Bilder auch nach dem Upload prüfen und öffnen kann.

Das System schlägt allerdings erst Alarm, wenn es pro Nutzer rund 30 Bilder ermittelt. In diesem Fall prüfen Mitarbeitende von Apple den Fall und entscheiden über das weitere Vorgehen. Vorerst soll die Technologie in den USA eingeführt werden.

Beim zweiten Verfahren will Apple bei Familien-Konten die Option anbieten, dass Kinder gewarnt werden, wenn sie sexuell explizite Inhalte versenden. Ob das der Fall ist, soll Apples Software mittels Machine-Learning-Verfahren ermitteln. Bei unter 13-jährigen sollen zudem die Eltern eine Benachrichtigung erhalten (nicht aber Apple), bei 13- bis 17-jährigen nur die Kinder.

Sorge vor Einstieg in weitere Überwachung

Bürgerrechtler und Datenschützer kritisieren die Systeme, seit Apple diese Anfang August enthüllte. So heißt es nun auch in dem offenen Brief, dass Algorithmen, die sexuell explizite Inhalte erkennen sollen, „notorisch unzuverlässig“ seien. „Diese tendieren dazu, Kunst, Gesundheitsinformationen, Bildungsinhalte, befürwortende Botschaften sowie andere Bilder fälschlicherweise zu markieren.“ Außerdem gehe das System davon aus, dass eine gesunde Beziehung zwischen Eltern und Kindern existiere. Das sei aber etwa nicht der Fall, wenn ein LGBTQ+-Jugendlicher in einem Umfeld aufwachse, das die sexuelle Orientierung nicht akzeptiere.

Ebenso problematisch sei das Scannen von Hash-Werten. Apple würde damit weltweit von Regierungen unter Druck gesetzt werden, um nach bestimmten Inhalten zu suchen, die jeweils als missliebig betrachtet werden. Somit drohe, dass sich Zensur- und Überwachungsmechanismen ausweiten, weil sich selbst Ende-zu-Ende-Verschlüsselungen so umgehen lassen.

Apple verteidigt die Pläne wie gehabt. Laut dem FAQ habe der Konzern etwa sichergestellt, dass Regierungen keine Bilder auf die Hash-Liste schmuggeln können, die nicht kinderpornografische Inhalte anzeigen. Zudem würden nicht alle Bilder auf den Geräten analysiert, sondern nur die, die Nutzer in die iCloud hochladen. Die Verschlüsselungsverfahren würden ebenfalls intakt bleiben, weil die Analyse auf den Geräten der Nutzer durchgeführt werde.