Notiz Signal: Update mit Blur-Effekt für die Verschleierung von Gesichtern

nlr

Redakteur
Teammitglied
Registriert
Sep. 2005
Beiträge
9.982
Für den mit Ende-zu-Ende-Verschlüsselung ausgestatteten Messenger Signal wird ein Update für Android und iOS verteilt, das die Verschleierung von Gesichtern über einen Blur-Effekt erlaubt. Das Feature sei auch wegen der aktuell vor allem in den USA stattfindenden Proteste gegen Polizeigewalt und Rassismus integriert worden.

Zur Notiz: Signal: Update mit Blur-Effekt für die Verschleierung von Gesichtern
 
  • Gefällt mir
Reaktionen: linuxxer, H1ldegunst, Edward N. und 5 andere
Das Artikelbild find ich toll.

Mit Blur verschleierte Gesichter, die eh alle ne Maske auf haben. :D
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Kleiner69 schrieb:
Das Artikelbild find ich toll.

Mit Blur verschleierte Gesichter, die eh alle ne Maske auf haben. :D

Die automatische Erkennung von Gesichtern funktioniert auch mit Maske, siehe etwa hier oder hier. Dabei muss man bedenken, dass Software dem Menschen schon seit einiger Zeit in der Bilderkennung überlegen ist.

Es sind traurige Zeiten, die solche Features notwendig machen. Hoffentlich schaffen sie eine nachhaltige Aufmerksamkeit nicht nur für Cryptomessenger wie Signal, sondern auch für das fragile Gut der Demokratie.

Offtopic: habe kürzlich erst diese Story ausgelesen, die u.a. durchspielt, was das automatisierte Erkennen von Gangmustern im öffentlichen Raum bedeutet. Wärmste Empfehlung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: linuxxer, Edward N., BachUhr und 2 andere
"dabei muss man bedenken, dass Software dem Menschen schon seit einiger Zeit in der Bilderkennung überlegen ist."
Das liegt weniger an der Software, sondern der Hardware...
"The software runs on a massive cluster of supercomputers, using 36 server nodes which between them have 72 processors with 432 cores, as well as 144 GPUs (graphics processing units, high-performance specialised chips typically used to deal with visual data). "

@Kleiner69: Ich finde es vor allem wichtig, dass blur verwendet wird. Gut, auf den ersten Blick dachte ich, da hat einfach jemand jeweils ein einfarbiges Rechteck drüber gemalt...
 
@Cool Master: Ach, man muss doch nur eine Aufgabe finden, die zu einem speziellen Problem passt, und danach verallgemeinert man das Problem halt einfach... in einem Fall ist die KI besser als Menschen, wow, damit sind KIs dem Menschen schon lange überlegen. So funktioniert argumentieren heute halt.
Dass die KI in dem Fall auch nicht "einem Menschen" entspricht, ist eigentlich auch egal...
 
twrz schrieb:
Die automatische Erkennung von Gesichtern funktioniert auch mit Maske, siehe etwa hier oder hier. Dabei muss man bedenken, dass Software dem Menschen schon seit einiger Zeit in der Bilderkennung überlegen ist.
Ist die automatische Videoüberwachung am Münchner Hbf (oder war es in Berlin?) nicht kläglich gescheitert?
 
Was willst du mir damit sagen?
Btw es war Berlin nicht München.
 
Dass dein Beispiel eben zeigt, dass nur weil man mit einem Cluster mal bessere Werte hinbekommt als mit einem Menschen, es noch lange nicht zwingend praxistauglich ist.
 
tollertyp schrieb:
Ach, man muss doch nur eine Aufgabe finden, die zu einem speziellen Problem passt, und danach verallgemeinert man das Problem halt einfach...

Ja da könnte was dran sein ;)
 
@supermanlovers
Die ist nicht kläglich gescheitert, es gab lediglich zu viel Widerstand aus Politik und Zivilgesellschaft. Die technischen Ergebnisse dieser Testphase bezeichnete selbst unser Innenminister als "beeindruckend". (Klick)
Solche Filter würde ich mir als Pflicht für jedes Smartphone wünschen, damit nur noch Gesichter von Menschen aufgenommen werden, die das zuvor auch legitimiert haben.
 
Bin vor einer Woche umgestiegen von whatsapp zu Signal und threema. War einfacher als gedacht, kurze Nachricht an alle whatsapp Kontakte und Zack, weg!
 
  • Gefällt mir
Reaktionen: econaut, fahr_rad, Valeria und 7 andere
tollertyp schrieb:
@Beelzebot: Und wie legitimiert man sich?
Vielleicht erhält man eine Bild-Legitimationsanfrage ähnlich zur PushTAN. Statt so etwas wie ApplePay gibts dann LegID o.ä. :D
Datenschutztechnisch und Aufwand etc. für unser Neuland im Jahr 2020 noch undenkbar. Aber für die Zeit ab 2025+ könnte ich mir so etwas schon vorstellen.
 
tollertyp schrieb:
"dabei muss man bedenken, dass Software dem Menschen schon seit einiger Zeit in der Bilderkennung überlegen ist."
Das liegt weniger an der Software, sondern der Hardware...
"The software runs on a massive cluster of supercomputers, using 36 server nodes which between them have 72 processors with 432 cores, as well as 144 GPUs (graphics processing units, high-performance specialised chips typically used to deal with visual data). "

Ohne die entsprechende Software kann man noch so viel Rechenkraft auf ein Problem werfen. Letztlich muss beides vorhanden sein; Software follows Hardware.

Cool Master schrieb:

Dass Algorithmen genauso voreingenommen sind, wie die Daten mit denen sie trainiert werden, ist keine neue Erkenntnis. Und false positives liegen auch in der Natur statistischer Verfahren, wie man hier schön sieht. Schlimmer ist es doch, mit welcher Naivität solche Systeme eingesetzt werden.
Der Versuch am Südkreuz war kein Erfolg, was aber nicht bedeutet, dass Gesichtserkennung nicht funktioniert, sondern dass hierzulande (zum Glück) noch kein entsprechendes Know How vorhanden ist.

tollertyp schrieb:
@Cool Master: Ach, man muss doch nur eine Aufgabe finden, die zu einem speziellen Problem passt, und danach verallgemeinert man das Problem halt einfach... in einem Fall ist die KI besser als Menschen, wow, damit sind KIs dem Menschen schon lange überlegen. So funktioniert argumentieren heute halt.
Dass die KI in dem Fall auch nicht "einem Menschen" entspricht, ist eigentlich auch egal...

Ist dir mal in den Sinn gekommen, dass die massenhafte Mustererkennung in Gesichtern genau so ein spezielles Problem sein könnte?

tollertyp schrieb:
@supermanlovers: Man wird keinen solchen Cluster permanent dafür einsetzen können :-)

Doch. Doch, Sicherheitsbehörden können das.

tollertyp schrieb:
Dass dein Beispiel eben zeigt, dass nur weil man mit einem Cluster mal bessere Werte hinbekommt als mit einem Menschen, es noch lange nicht zwingend praxistauglich ist.

Facial Recognition ist praxistauglich. Nur eben in Deutschland noch nicht.
 
@tollertyp
Indem man der Person zuvor ein für die Software geeignetes Foto, signiert mit einem digitalem Wasserzeichen, seines Gesichtes zur Verfügung stellt und diese daran lernt. Bei Zweifeln muss der Autor des Bildes die Person manuell zuordnen und die Software schickt eine Anfrage raus.
Nur als Beispiel! Für soviel Quatsch gibt es heute App's, also warum sollte auch sowas nicht innovativ umsetzbar sein? Warum sollen eigentlich nur der Staat und Großkonzerne von dieser Technologie profitieren? So könnte man den Menschen wieder etwas mehr Privatsphäre zurück geben.
 
  • Gefällt mir
Reaktionen: twrz
Das Feature sei auch wegen der aktuell vor allem in den USA stattfindenden Proteste gegen Polizeigewalt und Rassismus integriert worden.
Also das muss man mir mal erklären. Geht es darum jetzt Gewalttäter, Brandstifter und Plünderer vor der Identifizierung zu schützen?
Was genau hat man als friedlicher Protestler der keine Straftaten verübt genau zu befürchten selbst wenn man mit Gesicht wo abgebildet wird?

Beelzebot schrieb:
Solche Filter würde ich mir als Pflicht für jedes Smartphone wünschen, damit nur noch Gesichter von Menschen aufgenommen werden, die das zuvor auch legitimiert haben.
genau und dann scheitert die Justiz am Ende daran dass eine Foto oder Videoaufnahme nicht zugelassen wird als Beweismittel weil der Täter ja nicht sein Einverständnis gegeben hat. Wieso fragen wir die Täter nicht gleich ob sie identifiziert werden wollen oder besser noch ob sie sich überhaupt vor einem Gericht rechtfertigen lassen wollen für das was sie getan haben?

Ich weiß nicht was der Zusammenhang mit den Protesten in USA jetzt soll. Es wurden mehrere Menschen getötet VON "Protestlern". Es gibt Videos wo am Boden liegenden Menschen ins Gesicht getreten wurd. Wir haben mindestens einen erschossenen Cop der ein Laden beschützen wollte von Protestlern. Obendrein war der Cop schwarz. Aber das interesiert in gewissen Kreisen ja nicht, er war zwar schwarz wurde aber von den "falschen" ermordet. Tote sind nicht mehr gleich Tote sondern je nach politischer Gesinnung interesiert es nur wenn eine bestimmte Täter-Opfer-Konstellation passt um die Toten zu instrumentalisieren.

Ich seh das so auf einer Demo hat man auch sein Gesicht zu zeigen. Die Leute die das nicht tun wollen sich in erster Linie vor der Strafverfolgung schützen.
Aber bitte dann nächstemal nicht rumjammern wenn wir ein Opfer haben aber den Täter nicht überführen können aus einem falsch verstandenen Datenschutz.

Auf mich macht das grad den Eindruck als wolle Signal den Straftätern hier eine Mittel an die Hand geben sodass diese weiterhin sich beim Begehen von Straftaten filmen können aber keine Angst haben müssen überführt zu werden... So werden Täter und Opfer am Ende gesichtlos. Super.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PerAstraAdDeum, von Schnitzel, Marflowah und eine weitere Person
Ich kenne die App nicht: Was hat das mit Gesichtserkennung und dessen Verschleierungsfunktion zu tun / auf sich?
 
  • Gefällt mir
Reaktionen: DerHalbmann
Zurück
Oben