Notiz Signal: Update mit Blur-Effekt für die Verschleierung von Gesichtern

nlr

Redakteur
Teammitglied
Dabei seit
Sep. 2005
Beiträge
6.999
Für den mit Ende-zu-Ende-Verschlüsselung ausgestatteten Messenger Signal wird ein Update für Android und iOS verteilt, das die Verschleierung von Gesichtern über einen Blur-Effekt erlaubt. Das Feature sei auch wegen der aktuell vor allem in den USA stattfindenden Proteste gegen Polizeigewalt und Rassismus integriert worden.

Zur Notiz: Signal: Update mit Blur-Effekt für die Verschleierung von Gesichtern
 

Kleiner69

Lt. Commander
Dabei seit
Mai 2008
Beiträge
1.424
Das Artikelbild find ich toll.

Mit Blur verschleierte Gesichter, die eh alle ne Maske auf haben. :D
 

twrz

Lt. Junior Grade
Dabei seit
Jan. 2008
Beiträge
377
Das Artikelbild find ich toll.

Mit Blur verschleierte Gesichter, die eh alle ne Maske auf haben. :D
Die automatische Erkennung von Gesichtern funktioniert auch mit Maske, siehe etwa hier oder hier. Dabei muss man bedenken, dass Software dem Menschen schon seit einiger Zeit in der Bilderkennung überlegen ist.

Es sind traurige Zeiten, die solche Features notwendig machen. Hoffentlich schaffen sie eine nachhaltige Aufmerksamkeit nicht nur für Cryptomessenger wie Signal, sondern auch für das fragile Gut der Demokratie.

Offtopic: habe kürzlich erst diese Story ausgelesen, die u.a. durchspielt, was das automatisierte Erkennen von Gangmustern im öffentlichen Raum bedeutet. Wärmste Empfehlung.
 
Zuletzt bearbeitet:

tollertyp

Lieutenant
Dabei seit
Feb. 2020
Beiträge
753
"dabei muss man bedenken, dass Software dem Menschen schon seit einiger Zeit in der Bilderkennung überlegen ist."
Das liegt weniger an der Software, sondern der Hardware...
"The software runs on a massive cluster of supercomputers, using 36 server nodes which between them have 72 processors with 432 cores, as well as 144 GPUs (graphics processing units, high-performance specialised chips typically used to deal with visual data). "

@Kleiner69: Ich finde es vor allem wichtig, dass blur verwendet wird. Gut, auf den ersten Blick dachte ich, da hat einfach jemand jeweils ein einfarbiges Rechteck drüber gemalt...
 

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
29.928

tollertyp

Lieutenant
Dabei seit
Feb. 2020
Beiträge
753
@Cool Master: Ach, man muss doch nur eine Aufgabe finden, die zu einem speziellen Problem passt, und danach verallgemeinert man das Problem halt einfach... in einem Fall ist die KI besser als Menschen, wow, damit sind KIs dem Menschen schon lange überlegen. So funktioniert argumentieren heute halt.
Dass die KI in dem Fall auch nicht "einem Menschen" entspricht, ist eigentlich auch egal...
 

tollertyp

Lieutenant
Dabei seit
Feb. 2020
Beiträge
753
Dass dein Beispiel eben zeigt, dass nur weil man mit einem Cluster mal bessere Werte hinbekommt als mit einem Menschen, es noch lange nicht zwingend praxistauglich ist.
 

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
29.928

Beelzebot

Cadet 4th Year
Dabei seit
Aug. 2017
Beiträge
69
@supermanlovers
Die ist nicht kläglich gescheitert, es gab lediglich zu viel Widerstand aus Politik und Zivilgesellschaft. Die technischen Ergebnisse dieser Testphase bezeichnete selbst unser Innenminister als "beeindruckend". (Klick)
Solche Filter würde ich mir als Pflicht für jedes Smartphone wünschen, damit nur noch Gesichter von Menschen aufgenommen werden, die das zuvor auch legitimiert haben.
 

Skidrow

Lieutenant
Dabei seit
Aug. 2006
Beiträge
766
Bin vor einer Woche umgestiegen von whatsapp zu Signal und threema. War einfacher als gedacht, kurze Nachricht an alle whatsapp Kontakte und Zack, weg!
 

VYPA

Lt. Commander
Dabei seit
Sep. 2004
Beiträge
1.697

twrz

Lt. Junior Grade
Dabei seit
Jan. 2008
Beiträge
377
"dabei muss man bedenken, dass Software dem Menschen schon seit einiger Zeit in der Bilderkennung überlegen ist."
Das liegt weniger an der Software, sondern der Hardware...
"The software runs on a massive cluster of supercomputers, using 36 server nodes which between them have 72 processors with 432 cores, as well as 144 GPUs (graphics processing units, high-performance specialised chips typically used to deal with visual data). "
Ohne die entsprechende Software kann man noch so viel Rechenkraft auf ein Problem werfen. Letztlich muss beides vorhanden sein; Software follows Hardware.

Dass Algorithmen genauso voreingenommen sind, wie die Daten mit denen sie trainiert werden, ist keine neue Erkenntnis. Und false positives liegen auch in der Natur statistischer Verfahren, wie man hier schön sieht. Schlimmer ist es doch, mit welcher Naivität solche Systeme eingesetzt werden.
Der Versuch am Südkreuz war kein Erfolg, was aber nicht bedeutet, dass Gesichtserkennung nicht funktioniert, sondern dass hierzulande (zum Glück) noch kein entsprechendes Know How vorhanden ist.

@Cool Master: Ach, man muss doch nur eine Aufgabe finden, die zu einem speziellen Problem passt, und danach verallgemeinert man das Problem halt einfach... in einem Fall ist die KI besser als Menschen, wow, damit sind KIs dem Menschen schon lange überlegen. So funktioniert argumentieren heute halt.
Dass die KI in dem Fall auch nicht "einem Menschen" entspricht, ist eigentlich auch egal...
Ist dir mal in den Sinn gekommen, dass die massenhafte Mustererkennung in Gesichtern genau so ein spezielles Problem sein könnte?

@supermanlovers: Man wird keinen solchen Cluster permanent dafür einsetzen können :-)
Doch. Doch, Sicherheitsbehörden können das.

Dass dein Beispiel eben zeigt, dass nur weil man mit einem Cluster mal bessere Werte hinbekommt als mit einem Menschen, es noch lange nicht zwingend praxistauglich ist.
Facial Recognition ist praxistauglich. Nur eben in Deutschland noch nicht.
 

Beelzebot

Cadet 4th Year
Dabei seit
Aug. 2017
Beiträge
69
@tollertyp
Indem man der Person zuvor ein für die Software geeignetes Foto, signiert mit einem digitalem Wasserzeichen, seines Gesichtes zur Verfügung stellt und diese daran lernt. Bei Zweifeln muss der Autor des Bildes die Person manuell zuordnen und die Software schickt eine Anfrage raus.
Nur als Beispiel! Für soviel Quatsch gibt es heute App's, also warum sollte auch sowas nicht innovativ umsetzbar sein? Warum sollen eigentlich nur der Staat und Großkonzerne von dieser Technologie profitieren? So könnte man den Menschen wieder etwas mehr Privatsphäre zurück geben.
 

Rach78

Lt. Commander
Dabei seit
März 2007
Beiträge
2.014
Das Feature sei auch wegen der aktuell vor allem in den USA stattfindenden Proteste gegen Polizeigewalt und Rassismus integriert worden.
Also das muss man mir mal erklären. Geht es darum jetzt Gewalttäter, Brandstifter und Plünderer vor der Identifizierung zu schützen?
Was genau hat man als friedlicher Protestler der keine Straftaten verübt genau zu befürchten selbst wenn man mit Gesicht wo abgebildet wird?

Solche Filter würde ich mir als Pflicht für jedes Smartphone wünschen, damit nur noch Gesichter von Menschen aufgenommen werden, die das zuvor auch legitimiert haben.
genau und dann scheitert die Justiz am Ende daran dass eine Foto oder Videoaufnahme nicht zugelassen wird als Beweismittel weil der Täter ja nicht sein Einverständnis gegeben hat. Wieso fragen wir die Täter nicht gleich ob sie identifiziert werden wollen oder besser noch ob sie sich überhaupt vor einem Gericht rechtfertigen lassen wollen für das was sie getan haben?

Ich weiß nicht was der Zusammenhang mit den Protesten in USA jetzt soll. Es wurden mehrere Menschen getötet VON "Protestlern". Es gibt Videos wo am Boden liegenden Menschen ins Gesicht getreten wurd. Wir haben mindestens einen erschossenen Cop der ein Laden beschützen wollte von Protestlern. Obendrein war der Cop schwarz. Aber das interesiert in gewissen Kreisen ja nicht, er war zwar schwarz wurde aber von den "falschen" ermordet. Tote sind nicht mehr gleich Tote sondern je nach politischer Gesinnung interesiert es nur wenn eine bestimmte Täter-Opfer-Konstellation passt um die Toten zu instrumentalisieren.

Ich seh das so auf einer Demo hat man auch sein Gesicht zu zeigen. Die Leute die das nicht tun wollen sich in erster Linie vor der Strafverfolgung schützen.
Aber bitte dann nächstemal nicht rumjammern wenn wir ein Opfer haben aber den Täter nicht überführen können aus einem falsch verstandenen Datenschutz.

Auf mich macht das grad den Eindruck als wolle Signal den Straftätern hier eine Mittel an die Hand geben sodass diese weiterhin sich beim Begehen von Straftaten filmen können aber keine Angst haben müssen überführt zu werden... So werden Täter und Opfer am Ende gesichtlos. Super.
 
Zuletzt bearbeitet:

firejohn

Ensign
Dabei seit
Juni 2010
Beiträge
229
Ich kenne die App nicht: Was hat das mit Gesichtserkennung und dessen Verschleierungsfunktion zu tun / auf sich?
 
Top