News Gegen Diskriminierung: Maas will Algorithmen kontrollieren

Andy schrieb:
[...]Hasskriminalität[...]

So etwas gibt es nur in einer freimaurerischen Tugend-Tyrannei, etwa so, wie sie in der "Zauberflöte" demonstriert wird.

Hass als normale menschliche Emotion kann nach rechtsstaatlichen Maßstäben nicht kriminalisiert werden, Gefühlskriminalität kann es nur unter einer Willkürherrschaft geben.
 
22428216 schrieb:
1.: Computer arbeiten mathematisch und nicht anders!

2.: Mir geht dieser Unsinn auf den Geist. Man hört nur noch Diskriminierung, Ausgrenzung, Intoleranz etc...
Nichts kann man mehr sagen, ohne irgendeinem auf den Schlips zu treten.

Beispiel: Ich habe vor kurzem beim Einkaufen zu meiner Frau gesagt, dass ich hunger auf ein "Negerkussbrötchen" habe.
Einige Leute haben mich angeschaut, als würde ich nachts mit einer weißen Kapuze auf dem Kopf Kreuze anzünden.
Dabei hatte ich nur auf etwas Leckeres aus meiner Kindheit hunger, ohne was böses zu denken.

Oder das Theater um das "Zigeunerschnitzel"... :pcangry:

Was kommt als nächstes? Eine genderkonforme Textausgabe der Algorithmen?

Im Endeffekt bekommt man einen Maulkorb, der nur bestimmte Worte durchlässt.
Zensur und Verbote. Das kann doch nicht die schöne freie Welt sein, von der DIE immer reden.

Diese Welt dreht so langsam am Rad! :stock:


Sry, aber das musste jetzt mal raus.

Es geht doch nicht nur um die Diskriminierung von Randgruppen, sondern zb auch um die Diskriminierung von dir Normalbürger, wenn du mal wieder zu viele Daten rausposaunt hast. Also lass doch deine blöden Negerküsse stecken...
 
Justuz schrieb:
Oder sind das alles fiktive Probleme, die kommen könnten?
Zuerst einmal sind Bonitätsprüfungen auf dieser Basis Zukunftsmusik.

Aber ich finde es erfrischend, dass man in der Regierung tatsächlich mal Weitsicht zeigt und sich ein wenig mit möglichen Szenarien beschäftigt. Ob Maas zu einer sinnvollen Lösung kommt, wird sich noch zeigen.
 
Hat der Kollege Maas überhaupt irgendwas rechtlich gegen Website xy in der Hand?
Ich gehe jetzt mal von dem Fall aus, dass die keine .de Domain betreiben und keinen Firmensitz, keine Büros und auch keine Server hier in DE stehen haben.
Wen will er dann verklagen und wie will er evtl. Forderungen/Bußgelder überhaupt vollstecken?

Das soll keine rhetorische Frage sein, es interessiert mich wirklich und ich kann mir nicht so recht vorstellen, dass es außerhalb des Landes jemanden interessiert was der Heiko da will.
 
Faktisch ist es schon heute so, dass Versicherungsprämien auch nach Risikogruppen berechnet werden ... dazu reichen die Krankenakten der letzten 2 Generationen im Stammbaum ... Opa war zum ende hin recht teuer ... dann zahlt der Nachwuchs halt auch in dritter Generation einen Risikozuschlag für Krebs, schlechte Augen, Rauchen, weniger als 1000 Schritte am Tag und so weiter.

Möglich war das alles auch vor der vollvernetzten Smart-World ... durch die ist es aber sehr viel einfacher geworden und der Einblick ist obendrein noch viel intimer.

Dass z.B. Daten von Pulsmesser- und Schrittzähler-Apps direkt an die KK gehen dient nebenbei auch der Gesundheit ... die Hauptaufgabe dürfte aber aus Sicht der Versicherer im Risikomanagement liegen, welcher Versicherte könnte "teuer" werden, und welcher zahlt vielleicht einfach nur sein ganzes Leben ein, ohne die KK auch nur ein einziges Mal zu beanspruchen?

... Gesundheitsfaschisten finden das sicherlich toll, denn es ist ja Teil ihrer Wunsch-Gehirnwäsche mit dem Ziel der Unsterblichkeit. Aber für mich ist das ein bisschen "gläserner Mensch" zu viel.
Ich möchte eigentlich keine Werbung sehen, bei der mich die beworbene Mineralwasser-Flasche persönlich anspricht und mir erklärt, dass ich heute zu wenig getrunken habe.

Einzig Autos, die einem nach kurzen Fahrten sagen "die 200m hättest du aber auch zu Fuß geschafft, du faules Stück", das fände ich nett ... aber dafür braucht man kein Big-Data (ausserdem würde das faule Stück so ein Auto ja eh nicht kaufen).

Ich empfinde restlos ALLES, was die Big-Data-Sammelwut eingrenzen könnte, als positiv ... sogar, wenn da so eine Fresse wie Heiko Maas dranklebt.

Als Statistiker weiß ich ziemlich genau, was mit großen Datenmengen möglich ist ... genau deswegen bin ich auch gegen "big-data" und VDS ... das ist zu mächtig, um es Menschen unkontrolliert in die Hand zu geben, die damit nur Profitmaximierung betreiben wollen.

Wenn man etwas gegen die Diskriminierungspotenziale der Algorithmen tun möchte, dann darf man sie eben nicht mit differenzrelevanten Informationen füttern (also KEIN Alter, KEIN Geschlecht, KEINE Haut-, Haar- oder Augenfarbe, keine Kaufpräferenzen) ... im Prinzip kann und wird jede personenbezogene Information zu Diskriminierungen führen.

Wer das nicht möchte, der darf die Nutzung solcher Algorithmen eben nicht zulassen ... denn eine völlig nüchterne und ausschließlich an Zahen orientierte Bewertung kann eben nur diskriminierend sein, da sie die nicht quantisierbaren Variaben ignorieren MUSS.
 
Bonitätsprüfung anhand eines Facebookprofils. Alleine das verlockt dazu sich die Tischplatte auf den Kopf zu schlagen :freak:
 
Zuletzt bearbeitet:
Justuz schrieb:
Welche Firmen nutzen denn solche Algorhytmen, vor die uns Heiko Maas schützen will? z.b. die Bonitätsorüfung nach FB account?
Nicht eine einzige. Deutschland und der Big Data Markt ist keine passende Kombination.

Und selbst hier ist das noch weit davon entfernt interessant zu sein. Klassische und vor allem realistische Machine Learning Use Cases ("Big Data Analyse" im Politik-Terminus) sind Customer Segmentation (Marketing), Automatisierung (beispielsweise Fraud Detection im Versicherungsbereich) und Abloesung klassischer DWH und anderer Reporting Modelle.

Zumal es seit 20 Jahren Reporting und Analyse Werkzeuge gibt die insbesondere von Versicherungen verwendet werden, auch in Deutschland. Und nur weil Heinz-Herbert nicht mehr via DB2 Client obskure SQL Anfragen an einen Mainframe mit dem OPEX eines kleinen Inselstaates sendet heisst es nicht, dass sich die Grundidee geanendert hat. Risikomodelle sind weiterhin durchaus beliebt und basieren - wie uebrigens alle Machine Learning Algorithmen auch - auf klassischer Statistik.

Ja, sicher - du kannst die Daten, die die Leute freiwillig in die Welt kloppen (Soziale Netwerke, "smart" devices etc.) natuerlich dazu verwenden Leuten unterschiedliche Produkte und Preise anzudrehen oder eben keinen Vertrag abzuschliessen. Damit das moeglich ist muss allerdings die Datenbasis da sein - und wer es, wie gesagt, nicht freiwillig ins Netz stellt hat auf Grund des (in diesem Falle "Dank des") Datenschutzgesetzes wenig Handhabe sinnvolle Entscheidungen zu treffen. Und wo der Unterschied dazu liegt jemandem mit schlechter SCHUFA (auch schier statistische Modelle) keinen Kredit anzubieten, das muss mir noch wer erklaeren.

Wer nun allerdings Netzwerkdursuchungs-, Vorratsdatenspeicherung-, und sagen wir Einwohnermeldeamt-Daten (SCHUFA, GEZ) anzapfen darf und intransparent durch oeffentliche Gelder agiert... hm, ein Schelm wer boeses denkt.
 
Zuletzt bearbeitet:
Das wird interessant, zumal in Big Data viel auf "Versuchen wir das mal" oder Deep Learning basiert. Also "Algorithmen" wo auch die "Schöpfer" einen diskriminierenden Bias schwerlich ausschließen können.
 
Selbst wenn man die Firmen dazu zwingen kann, diese einer Schiedstelle/Behörde offenzulegen, reden wir hier von "Algorithmen" die so extrem komplex sind, dass sie in Jahren nicht überlickbar sind. Und das wären nur die normal programmierten. Von Neuronalen Netzen und AI-Systemen (wie zB für die Google Bilderkennung) gar nicht angefangen, die eigentlich selbst für Spezialisten, die sie gebaut haben, schwer zu durchblicken sind, weil sie sich natürlich - die Natur der Sache - selbst verbessern.
Ergänzung ()

22428216 schrieb:
rassistischen Mist runtergekürzt.

Du musst gar nicht mit Beispielen kommen, die dich deinen Alltagsrassismus aus den 40ern ausleben lassen. Darum geht es hier gar nicht, dass die bösen, bösen Leute nicht mehr wollen, dass du täglich Leute beleidigst, nur weil du unfähig bist 3 Meter an andere zu denken.

Hier geht es darum, dass zB du aufgrund deiner Straßenanschrift ein höheres Risiko zugeordnet kriegst, dass du einen Kredit nicht zahlst. Oder du als weißer Mann, der 5 mal im Monat in der Burgerbude aufschlägt, höhere Krankenbeiträge oder Medikamentenkosten zahlst, weil du ein extrem hohes Risiko hast an Herzinfarkt zu sterben. Oder du höhere Autopreise zahlst, weil der Crawler-Bot des Verkäufer anhand deiner Daten weiß, dass du bereit bist 20 % mehr zu zahlen als dein Nachbar, weil du nämlich ein Auto als Schwanzverlängerung siehst.
 
Zuletzt bearbeitet:
Oh wie edel, kann er gleich anfangen bei Schufa, die Vorratsdatenspeicherung, Krankendatenspeicherung und alle Bewertungssysteme.
 
ghostwriter2 schrieb:
Oder was passiert wenn (wegen falschem Namen) kein Account verknüpft werden kann? (Egal of FB, sofortüberweisung, twitter, CB, AshleyMadison...) Automatisch der schlechteste Wert?

Genau so ist es, ich habe z.Bsp. bei der Schufa ein leicht schlechteres Scoring, da ich keinen Handyvertrag habe!
 
Ich lese in vielen Kommentaren "niemand will.."
Doch, will man. Niemand wollte eine Mauer bauen, was daraus wurde ist in jedem Geschichtsbuch nachzulesen.
Diese ganze Sache ist ein riesen geldverschwendender Mist, der null auswirkung auf das haben wird, für das es geschaffen wurde.
Er wird viele Dinge "rasieren" die der Politik gefährlich werden (Meinungsmache gegen eine Partei etc, Ausgrenzung etc)
Genau wie "Sicherheit" gegen Terror hilft. ;)
Es ist viel Aktionismus, gesteuert mit angst vor einer unbekannten um etwas anzukündigen das gar nicht erreicht werden will. Klar soweit?!

so etwas meine ich :
Elcrian schrieb:
Wer nun allerdings Netzwerkdursuchungs-, Vorratsdatenspeicherung-, und sagen wir Einwohnermeldeamt-Daten (SCHUFA, GEZ) anzapfen darf und intransparent durch oeffentliche Gelder agiert... hm, ein Schelm wer boeses denkt.
 
Zuletzt bearbeitet:
Ich glaube nicht, dass man das Problem bei den Algorithmen erfolgreich angehen kann. Das Problem sind eher die Datenberge und der fehlende oder nicht durchgesetzte Datenschutz.

Das fängt z.B. schon bei den Zugangsprovidern an, die auf eigene Faust viel zu viele Verbindungsdaten viel zu lange speichern. Aber statt da das Datenschutzgesetz durchzusetzen, versuchen Maas und Co. statt dessen per Vorratsdatenspeicherung diese gefährliche Speicherpraxis nicht nur zu legalisieren, sondern verpflichtend zu machen und auszubauen.

Die Lektion, die unsere Politiker lernen müssen ist, dass nur nicht vorhandene Daten sicher vor Missbrauch sind. Datensparsamkeit ist der wichtigste Datenschutzgrundsatz überhaupt. Und Anonymität ist höchst erstrebenswert und ist wichtiger Teil des durch die Grundrechte garantierten Kommunikationsgeheimnisses.
Würde man den Datenschutz ausbauen effektiv durchsetzen und auch so gut es geht ein Problembewusstsein bei den Bürger schaffen (Schulfach "Medienkopentenz" oder sowas?), so dass sie vorsichtiger mit ihren persönlichen Daten umgehen, würden die bösen Algorithmen ins Leere greifen.
 
760_Torr schrieb:
So etwas gibt es nur in einer freimaurerischen Tugend-Tyrannei, etwa so, wie sie in der "Zauberflöte" demonstriert wird.

Hass als normale menschliche Emotion kann nach rechtsstaatlichen Maßstäben nicht kriminalisiert werden, Gefühlskriminalität kann es nur unter einer Willkürherrschaft geben.

Lieber Herr 760_Torr,

solche Meinungen sind in unserer fast vollkommenen Gesellschaft unerwünscht und stiften Unfrieden...

;)
 
Wenn Herr Maas diese "Algorithmen" als Risiko erkennt hat er ja recht.

Aber was soll denn da geprüft werden? Die Lebensdauer der verwendeten Software ist schon relativ kurz, und wenn sie datengetrieben agiert, lässt sich kaum noch etwas aus dem Algorithmus selber rauslesen.

Und an der Stelle bekomme ich Angst vor der Politik. Denn denen traue ich zu, Algorithmen wie Produkte der industriellen Ära zu betrachten und dementsprechende Prüfmechanismen einzuführen.

Kling für mich nach Innovationsbremse ohne Wert.
 
Facebook, Amazon, Google und Co sollten ihren Dienst mal für 3 Tage einstellen und eine Seite schalte mit

"Wegen Rechtsunsicherheit bei inkompetenter Regierung mussten wir unser Angebot in Deutschland leider einstellen"
 
760_Torr schrieb:
Hass als normale menschliche Emotion kann nach rechtsstaatlichen Maßstäben nicht kriminalisiert werden, Gefühlskriminalität kann es nur unter einer Willkürherrschaft geben.
Wenn du Hass empfindest kann dir dieses Gefühl niemand streitig machen.

Wenn du diese Gefühle nach außen äußerst und im schlimmsten Fall auch andere damit anstiftest ist es sehr wohl strafbar. Auch nicht erst durch das neue "Facebook-Gesetz", z.B. §130

Hass kann auch für das Strafmaß eine Rolle spielen. §46.

"Gefühlskriminalität" ist auch strafbar. Siehe Mobbing, Stalking §238, etc. - selbst Beleidigungen sind strafbar §185.
 
Einfach nur Wahlkampfgeschwätz, kommt mal wieder runter. Herr Maas wollte einfach Buzzwords raushauen, hat er mit Big Data, Diskriminierung und irgendwas mit Algen getan. Diese diskriminieren auch niemanden, aber Menschen durchaus. Wie wäre es also mal mit einem Gesetz gegen Menschen, Herr Maas? Könnten sie vielleicht ein paar AfD Wähler von sich überzeugen ...
 
Zur Machbarkeit einer solchen Überprüfbarkeit für Algorithmen wurde ja schon einiges gesagt: Das ist bei der Komplexität und Kurzlebigkeit heutiger Algorithmen schlicht nicht möglich. Außerdem ist es vom völlig falschen Ende her gedacht. Wie wäre es zum Beispiel, wenn man Verwender solcher Algorithmen zu mehr Transparenz zwingt, d.h. jeder, der andere aufgrund von Algorithmen bewertet, sollte das auch so offenlegen müssen. Dann kann wesentlicher besser beurteilen, was diskriminierend ist und was nicht. Zusätzlich könnte man auch bei einem besseren Datenschutz bzw. mehr Datensparsamkeit ansetzen (wurde auch schon hier genannt).

Grundsätzlich finde ich die Idee einer Regulierung nicht unbedingt schlecht, da immer mehr Entscheidungsalgorithmen eine gewisse Eigendynamik entwickeln können und wir uns irgendwann alle einem System von Algorithmen unterwerfen, von dem wir alle eigentlich nicht mehr so genau wissen, wie sie eigentlich funktionieren oder wer sie eigentlich steuert. Bloß muss man mit der Regulierung an den richtigen Stellen ansetzen.
 
Zurück
Oben