urgh
dann noch ein wenig 'AI' drüberbügeln und man bekommt eventuell keine Wohnung mehr da man ein kritisches Muster in den Ausgaben auf dem Konto hatte. Zunächst der Einkauf eines alkoholischen Getränks (sicherheit 96%), dann Gartenwerkzeug (sicherheit 83%) und schließlich ein Nahverkehrsticket (sicherheit 99,98%) was zufällig zu einem von der KI gelernten Fall passt wo jemand kurz darauf wegen Totschlag verurteilt wurde und dadurch sein Einkommen verlor. Also nicht Kreditwürdig.
Vielleicht war es aber auch nur eine Rolle Tapete, Kleister und ein Tapeziertisch ... wer weiß das schon so genau. Prüft ja keiner nach was die KI dann entscheidet, bei Millionen auswertungen pro Tag kann halt auch mal was daneben gehen. Kann man nix machen.
Nächster großer Schritt ist die gleichen Daten und Mechanismen für die Kriminalitätsprävention zu verwenden.
Spannende Frage meinerseits: kann man mit sowas auch ohne ausdrückliche Einwilligung beglückt werden? Per AGB oder Vertragsbestandteil bei Bank, Händler etc zum Beispiel?