2/3 Analyse : Microsofts Tay-Bot und der Hass im Netz

, 125 Kommentare

Verblüffende Anfängerfehler

Das Problem war nun: Die Vorkehrungen reichten bei weitem nicht aus. Neben der einfachen Lernfähigkeit waren es laut Motherboard vor allem zwei Punkten, die Tay zum Verhängnis wurden:

  • Fehlende Filter: Offenkundig hatte Microsoft keine Wortfilter eingebaut, um bereits im Vorfeld zu verhindern, dass der Bot Beleidigungen verschickt. Das ist erstaunlich, weil die entsprechenden Filter keine geheime Wissenschaft sind, sondern sogar als Open-Source-Liste bereitstehen.
  • Geschwindigkeit: Innerhalb des ersten Tages hat der Bot mehr als 90.000 Tweets abgesetzt. Wenn die Entwickler bei dieser Menge nun merken, dass Nutzer die technischen Filter geknackt haben, lässt sich nicht mehr viel machen – der Kontrollverlust ist vorprogrammiert.

Immerhin: Microsoft verspricht nun Anpassungen. Denn prinzipiell ist das Projekt vielversprechend, die maschinell lernenden KIs entsprechen dem Zeitgeist. Erst vor kurzem überraschte Googles Deepmind-Software AlphaGo die Fachwelt der Go-Spieler, weil die maschinell lernende KI Spielzüge kreierte, die Menschen nie gemacht hätten – und trotzdem vier von fünf Spielen gegen einen der weltbesten Go-Spieler gewann. Und das in einem Spiel wie Go, das aufgrund der Komplexität und der unzähligen Möglichkeiten als größte Herausforderung für eine KI galt. Doch AlphaGo siegte, weil die KI zunächst die Partien von menschlichen Profis nachstellte und dann noch mit Spielen gegen sich selbst trainiert wurde.

Kommunizieren ist nicht Go spielen

Das Problem, das anhand von Tay offensichtlich wird: Während eine selbst lernende KI bei Spielen wie Go ein erstaunliches Niveau erreicht, ist das Vorgehen bei der menschlichen Kommunikation ungleich schwieriger. Denn dort muss die KI nicht nur die sprachlichen Regeln beachten, sondern ist obendrein noch mit all den menschlichen Abgründen konfrontiert, die ein soziales Netzwerk eben zu bieten hat. Bei AlphaGo ist das Pendel also in Richtung KI-Zukunft ausgeschlagen, doch mit Microsofts Tay kam es nun postwendend zurück. Und zwar mit solchen Schwung, dass es eine Schneise der Verwüstung hinterlassen hat.

Die Internetdienste und der Hass im Netz

Daher will Microsoft nun nachlegen, damit der der Bot künftig „das Beste, und nicht das Schlimmste der Menschheit“ repräsentiert. Die Frage ist nur, wie leicht das machbar ist. Denn Tay steht sinnbildlich für eine Tendenz, die schon länger in den sozialen Netzen zu beobachten ist: Je größer eine Plattform ist, desto mehr bestimmen die Radikalsten und Lautesten die Diskussion. Wenn dann keine vernünftigen Regeln existieren, dominieren menschliche Abgründe. Selbst Social-Media-Dompteure wie Sascha Lobo verzweifeln mittlerweile angesichts der „Flächenidiotie in den sozialen Medien“.

Mit Werten gegen die Flächenidiotie

Wenn nun ein maschineller Lern-Bot trotz dieser „Flächenidiotie“ wie geplant funktionieren soll, benötigt er zunächst ein solides Wertefundament. Doch sobald so ein Wertefundament geschaffen wird, handelt es sich ein Stück weit auch um eine politische Entscheidung – und die sind grundsätzlich heikel, wie allein schon die Entwicklung in den letzten Monaten zeigt.

Probleme mit dem Verhaltenskodex

Denn wie schwer es den großen Internetdiensten fällt, mit dem Hass im Netz umzugehen, zeigte in der Vergangenheit schon das Verhalten von Facebook in der Hate-Speech-Debatte. Infolge der Flüchtlingskrise erreiche die Anzahl an Kommentaren mit fremdenfeindlichen und rassistischen Inhalten einen bis dato ungeahnten Höhepunkt. Es wurde offen gehetzt, gepöbelt und bedroht. Der Stammtisch eroberte die digitale Welt. Vielen Nutzern war das ein Dorn im Auge und irgendwann richtete sich der Protest dann auch gegen Facebook. Denn in den Gemeinschaftsrichtlinien des sozialen Netzwerks heißt es zwar, dass Hassbeiträge nicht geduldet werden. Doch bei der Entscheidung, ob gemeldete Beiträge entfernt werden sollen, wirkt Facebook erstaunlich hilflos.

Willkür ist der Eindruck, der in der Öffentlichkeit entstand. Und wie eine skurrile Doppelmoral wirkt. Denn: Hassbeiträge, die offenkundig gegen die Richtlinien verstoßen, rutschen immer wieder durch das Raster, während etwa Bilder mit weiblichen Brustwarzen als anstößig bewertet und konsequent gelöscht werden.

Facebook kämpft beim Umgang mit Hassbeiträgen allerdings mit einigen Problemen:

  • Das Bewerten der gemeldeten Beiträge ist schwierig, stets muss abgewogen werden, ob diese nun gegen die Richtlinien verstoßen oder nicht. Ohnehin gilt: Ein sinnvolles Regelwerk zu finden, was zumindest einen Großteil der Nutzer zufriedenstellt, ist schon ein Drahtseilakt. Denn was den einen stört, ist für den anderen noch eine legitime Meinungsäußerung.
  • Deutlich wird das bei den regionalen Unterschieden: In den USA steht die Meinungsfreiheit über allem, in Deutschland ist es die Menschenwürde. Dementsprechend spielen Persönlichkeitsrechte eine viel größere Rolle.
  • Ein Algorithmus verspricht auch keine Hilfe. Dem fehlt das Gespür für die Nuancen, um legitime Meinungsäußerungen von Hassbeiträgen zu unterscheiden. Daher ist es auch eine Aufgabe, die noch von Menschen erledigt werden muss – was bei einer Silicon-Valley-Firma schon wie ein Anachronismus wirkt. Weibliche Brustwarzen auf Bildern entdecken ist da schon deutlich einfacher.

Bei der Bewertung von Nutzerbeiträgen versagt die Macht der Algorithmen also.

Auf der nächsten Seite: Die Macht von Filter-Algorithmen