News iOS 15.2 veröffentlicht: Der App-Datenschutzbericht und mehr ziehen ein

Nachdem ich gelesen habe das in IOS 15.2 die Funktion zum Schutz der Kinder eingebaut wurde. Das heißt für mich Apple ist Raus.
 
@marcwo Das ist die Funktion die bei Kinderaccounts bei Bildern die man über iMessage verschickt via KI schaut ob da (wahrscheinlich) Nacktfotos dabei sind und falls ja, werden die Kinder darauf hingewiesen, dass sie vorsichtig sein sollten wenn sie solche Fotos verschicken bzw. dass sie mit einer Vertrauensperson sprechen sollten, wenn sie solche Bilder nicht erhalten wollten.

Wo ist da jetzt das Problem?

Was den - separaten und aktuell nicht umgesetzten - CSAM-Scan betrifft:
John Gruber hat es am besten gesagt:
Put another way, if governments, authoritarian or otherwise, were able to force Apple (or Google, or Microsoft) to add secret snooping features — like say finding photos of Tank Man on Chinese users’ devices and reporting them to the CCP — to our operating systems, the game is over. They wouldn’t need this proposed device-side CSAM fingerprinting feature to abuse, they could just demand whatever they want. Access to your email, everything.
https://daringfireball.net/linked/2021/12/15/apple-child-safety-csam

Da wurde ein Feature groß angekündigt, die mögliche Bedrohung da durch ist aber irrelevant, denn die befürchtete schlimmste anzunehmende Ausnutzung durch Regierungen und Organisationen könnte bereits jetzt ganz einfach heimlich stattfinden, auf ähnlichen oder ganz anderen Wegen!
Diese Organisationen sind so mächtig und die Gesetze so umfassend, dass der Weg über einen CSAM-Scan komplett unnötig wäre.
Entweder vertraut man Apple, dass die dafür sorgen, dass das CSAM-Feature nicht missbraucht wird - oder man kann absolut keiner Firma bei überhaupt nichts vertrauen!
 
Zurück
Oben