News CSAM: Apple will Kinderpornografie-Erkennung nicht umsetzen

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
9.982
Apple hat die Entwicklung der im Sommer 2021 vorgestellten CSAM-Erkennung endgültig eingestellt. Das Feature, das Kinderpornografie während des Uploads von Fotos zu iCloud anhand spezieller Hashes erkennen sollte, war zur Ankündigung vielerorts missverstanden, dann kontrovers diskutiert und der Rollout später pausiert worden.

Zur News: CSAM: Apple will Kinderpornografie-Erkennung nicht umsetzen
 
  • Gefällt mir
Reaktionen: iron-man, ComputerJunge, tidus1979 und 9 andere
Ein Gewinn für den Datenschutz.
 
  • Gefällt mir
Reaktionen: gartenriese, Moonr3der, halbtuer2 und 49 andere
Ich stelle immer wieder fest, wie schmal der Grat zwischen Freiheit und Sicherheit ist und bin oft genug zwigesaplten oder einfach ratlos, was ich da jetzt für "besser" halte.

Sehr komplexe und komplizierte Themen, die uns da in nächster Zeit noch beschäftigen werden.
 
  • Gefällt mir
Reaktionen: polloze, Gewürzwiesel, LukS und 64 andere
ascer schrieb:
Ein Gewinn für den Datenschutz.
Bis die ersten kommen und skandieren das Datenschutz gleich Täterschutz ist.
 
  • Gefällt mir
Reaktionen: gartenriese, 7H0M45, DrTimeWaste und 17 andere
Ich dachte die haben damit schon angefangen?

Hab kürzlich den Heise-Artikel gelesen, wo dem Typen sein MS Account gesperrt wurde, weil seien Schwester Bilder vom nackigen Sohn am Strand gemacht hat, die automatisch zu OneDrive hochgeladen wurden... Meine Mom ließ meinen Bruder auch nackt am Strand voN Californien spielen, da war aber was los... sowas kennen die Amis null. Ergo ist halt auch schnell die Frage wo man da ne Abgrenzung macht, ist in Europa halt anders als in USA...
 
  • Gefällt mir
Reaktionen: 7H0M45, iron-man, DirtyHarryOne und 6 andere
"Muss" ja ein Riesenproblem sein, wenn so ein Aufwand betrieben werden sollte. Nicht nur technisch, auch rechtlich.
 
  • Gefällt mir
Reaktionen: Papalatte
@DFFVB Das war Microsoft, das ein Konto eines Nutzers gesperrt hat, weil er Nacktfotos vom Neffen auf dem Telefon hatte und dies automatisch mit Onedrive synchronisiert wurde.
 
  • Gefällt mir
Reaktionen: twoface88 und Suspektan
Ich finde, dass ist so ein schwieriges Thema, da kann man gar nicht so einfach sagen ob es jetzt gut oder schlecht ist.
 
  • Gefällt mir
Reaktionen: aid0nex, Papalatte, DJServs und 3 andere
Schade, es wäre ein gutes Tool zur Verhinderung der Verbreitung von KiPos geworden.

Wenn man den Filter nicht will, dann nutzt man eben keine iCloud, da ja nur die Bilder gescannt werden, welche hochgeladen werden sollen.
 
  • Gefällt mir
Reaktionen: Mac-4-Life
JimmyTheApe schrieb:
Bis die ersten kommen und skandieren das Datenschutz gleich Täterschutz ist.
Genau wie dir und bei Ascer seine Antwort, Datenschutz ehrlich? Du redest von Täterschutz. Man sollte bei sowas über Opferschutz reden, meiner Meinung nach geht kein Datenschutz über Opferschutz. Und eigentlich ist es nur ein Trauerspiel das dem nicht so ist.
 
  • Gefällt mir
Reaktionen: Hydrogenium, Mac-4-Life, JohnDonson und eine weitere Person
DFFVB schrieb:
Ich dachte die haben damit schon angefangen?

Hab kürzlich den Heise-Artikel gelesen, wo dem Typen sein MS Account gesperrt wurde, weil seien Schwester Bilder vom nackigen Sohn am Strand gemacht hat, die automatisch zu OneDrive hochgeladen wurden.
Automatisierte Scans: Microsoft sperrt Kunden unangekündigt für immer aus
Was so übel an dem Fall ist, daß MS hier Null Einsicht zeigt, daß sie falsch gehandelt hatten.

Ähnlich bei Google
Wegen Intimfotos seines Sohnes für den Arzt: Google meldet Mann als möglichen Missbrauchstäter
 
  • Gefällt mir
Reaktionen: Wallwatcher, 7H0M45, Bhaal3010 und 17 andere
@habla2k @JimmyTheApe @xeonking ich finde bei solchen Themen ist das alles ziemlich eindeutig.

Erstens weiß man aus unzähligen Kriminalberichten, dass die weitaus größte Anzahl an Verhaftungen tatsächlicher Täter aus altmodischen Ermittlungen kommt. D.h. die effektivste Waffe ist gute alte Investigativarbeit und schlicht wenn man sich wirklich für den Kinderschutz einsetzen wollen würde, würde man (1) mehr Personal bei der Polizei in genau diesem Sektor einsetzen und (2) mehr präventive Maßnahmen (Elternschulungen, Kinderschulungen, ...) durchführen.

Ähnlich wie bei der Vorratsdatenspeicherung. Man hat solche Dinge wie Kinderpornografie vorgeschoben, aber die Kriminalberichte haben ganz klar gezeigt, dass es genau 0 hilft und jedes Mal wird versucht, 100 Hintertüren wie ohne Gerichtsbeschluss, für minderschwere Vergehen, großangelegte anlasslose Durchsuchungen, ... einzubauen. Man sieht also ganz klar, dass das nur um den gläsernen Bürger geht und nicht um die vorgeschobenen Maßnahmen wie Eindämmung von Kinderpornografie.

Abgesehen davon halte ich es philosophisch da ganz streng mit den Zitaten aus meinem Profil, allen voran:
"People willing to trade their freedom for temporary security deserve neither and will lose both." Benjamin Franklin
 
  • Gefällt mir
Reaktionen: LukS, Wallwatcher, Flywolf und 40 andere
xeonking schrieb:
Genau wie dir und bei Ascer seine Antwort, Datenschutz ehrlich? Du redest von Täterschutz. Man sollte bei sowas über Opferschutz reden, meiner Meinung nach geht kein Datenschutz über Opferschutz. Und eigentlich ist es nur ein Trauerspiel das dem nicht so ist.
Die beiden oben verlinkten Beispiele zeigen doch deutlich, daß diese automatische Erkennung Mist ist.
 
  • Gefällt mir
Reaktionen: LukS, 7H0M45, tritratrullala und 12 andere
xeonking schrieb:
Du redest von Täterschutz.
Hab ich geäußert dass es meine Meinung ist? Nope.
Meine Meinung zu dem Thema habe ich mit keiner Silbe geäußert.
 
  • Gefällt mir
Reaktionen: Kuristina
PHuV schrieb:
Kann passieren, ist dumm gelaufen. Natürlich doof das man das nicht hinbekommt. Aber mal ehrlich, ist es nicht besser einmal zu viel gemeldet als ein Missbrauchtes Kind/Frrau etc.`? Es wird niemals das perfekte System dafür geben, aber man kann versuchen das ganze ein zu grenzen.
 
  • Gefällt mir
Reaktionen: Mac-4-Life
ascer schrieb:
Erstens weiß man aus unzähligen Kriminalberichten,

Ernstgemeinte Frage: Ist das so? Ich hätte ja schon die Hoffnung dass die digitalen Mittel helfen, wenngleich das von Apple etwas zu weit ging...
 
xeonking schrieb:
Genau wie dir und bei Ascer seine Antwort, Datenschutz ehrlich? Du redest von Täterschutz. Man sollte bei sowas über Opferschutz reden, meiner Meinung nach geht kein Datenschutz über Opferschutz. Und eigentlich ist es nur ein Trauerspiel das dem nicht so ist.
Dann können wir ja gleich in jeder Privatwohnung Kameras aufhängen, immerhin finden die meisten Übergriffe genau dort statt. Würde auch gleich noch eine Reihe anderer Straftaten wie Gewalt durch Partner, Einbruch etc. abdecken, also eine super Idee oder ?
 
  • Gefällt mir
Reaktionen: LukS, Wallwatcher, akuji13 und 21 andere
@xeonking Das ist mir etwas zu einfach, grundsätzlich ja, aber der Typ hatte massiven Schaden - und wer schnell sperrt, muss halt auch schnell entsperren...
 
  • Gefällt mir
Reaktionen: 7H0M45, Bhaal3010, MP X10L und 6 andere
Pandora schrieb:
Dann können wir ja gleich in jeder Privatwohnung Kameras aufhängen, immerhin finden die meisten Übergriffe genau dort statt. Würde auch gleich noch eine reihe anderer Straftaten wie abdecken, also eine super Idee oder ?
Schwachsinn, das ist null komma nix vergleichbar.
 
  • Gefällt mir
Reaktionen: Dama und shy-Denise
xeonking schrieb:
Kann passieren, ist dumm gelaufen. Natürlich doof das man das nicht hinbekommt. Aber mal ehrlich, ist es nicht besser einmal zu viel gemeldet als ein Missbrauchtes Kind/Frrau etc.`? Es wird niemals das perfekte System dafür geben, aber man kann versuchen das ganze ein zu grenzen.
Wenn Du Unschuldige damit brandmarkst bzw. deren Accounts mit allen Bildern und gekaufter Software ohne jegliches ordentliches Gerichtsverfahren beschlagnahmt und gesperrt wird? Klares Nein!

Wenn die Firmen das als ein Indiz melden würden, so daß juristisch ordentlich ermittelt werden kann, ginge das in Ordnung. So spielen dann aber Microsoft und Google Executive und Legislative, und das darf so nicht sein!
 
  • Gefällt mir
Reaktionen: polloze, LukS, Snudl und 14 andere
Zurück
Oben