Analyse: Microsofts Tay-Bot und der Hass im Netz

 3/3
Andreas Frischholz
125 Kommentare

Die Macht von Filter-Algorithmen

Die einfachere Lösung für die sozialen Netzwerke ist daher: Den Nutzern am besten nur die Beiträge anzeigen, die sie sehen wollen. Das ist relativ simpel, weil die Algorithmen anhand der Massen an Nutzerdaten relativ gut entscheiden können, was den Einzelnen wohl am meisten interessiert. Doch auch dieses Vorgehen ist heikel.

Eines der Probleme ist: Wenn Nutzer nur noch die Informationen zu Gesicht bekommen, die sie ohnehin interessieren, droht eine Filterblase – ein Begriff, den der Internetaktivist Eli Pariser im Jahr 2011 prägte. Demnach schaffen sich die einzelnen Nutzer eine Art Parallelwelt, in der nur noch die bekannten Informationen, Ideen und Weltbilder existieren. Andere Meinungen werden ausgeblendet, mit Widersprüchen wird man nicht mehr konfrontiert. Es ist eine „unsichtbare, automatische Propaganda, in der wir uns selbst mit unseren eigenen Ideen indoktrinieren“, so Pariser. Und dieses Abschotten von der digitalen Außenwelt ist vermutlich eine Erklärung dafür, warum die politische Debatte mittlerweile nicht mehr in unterschiedliche Lager, sondern in komplett voneinander abweichende Wirklichkeiten zerfällt, wie der Schweizer Journalist Constantin Seibt argumentiert.

Nun handelt es sich bei den Filterblasen noch um eine Form des organisierten Selbstbetrugs. Allerdings verleihen die Filter-Algorithmen auch den sozialen Netzwerken wie Facebook eine ungeheure Macht, wie der amerikanische Psychologe Robert Epstein in dem Essay The new mind control beschreibt. So hatte Facebook bei den Wahlen im Jahr 2010 einen Hinweis an mehr als 60 Millionen Nutzer verschickt: „Geh raus und wähle“, lautete die Aufforderung. Spätere Untersuchungen haben dann gezeigt, dass auf diese Weise 340.000 Personen gewählt haben, die ohne den Hinweis nicht zur Urne gegangen wären.

Per se ist das nichts Schlechtes. Je mehr Menschen wählen gehen, desto besser ist es für eine Demokratie. Doch das Experiment lässt sich auch als Schatten für eine düstere Zukunft interpretieren. So fragt Epstein: „Was passiert aber, wenn solche Technologien von den Unternehmen missbraucht werden, die sie besitzen?“ So könnte Facebook etwa die Nutzerdaten auswerten, um die Wahlhinweise nur an Personen zu verschicken, die eine bestimmte Partei oder einen bestimmten Kandidaten unterstützen. Es wäre eine subtile Manipulation der Wahl, die sich im Nachhinein kaum nachweisen lässt.

Bislang sind solche Befürchtungen aber nur Theorie, es gibt keinen konkreten Hinweis, dass Unternehmen wie Facebook und Google bewusst bestimmte Kandidaten bevorzugen, um die Wahlen zu beeinflussen. Doch die Skepsis bleibt. Vor allem weil die Menschen immer noch vertrauen, dass „die mysteriösen Such-Algorithmen […] völlig objektive und nicht verfälschte Ergebnisse liefern“, so Epstein. Und allein das sei bereits ein Trugschluss.

Es gibt keine einfachen Lösungen

Deutlich wird bei all dem: Wenn Internetdienste bei den Debatten im Netz nicht eingreifen, ist eine Eskalation wie bei Tay praktisch zwangsläufig. Wenn sie nun aber als Schiedsrichter auftreten, wird es ebenfalls heikel, wie allein schon das willkürliche Verhalten von Facebook beim Umgang mit Hassbeiträgen zeigt. Und sobald eine politische Dimension hinzukommt, wird es nochmals komplizierter.

So gesehen steht Tay beispielhaft für eine Frage, die in Zukunft noch wichtiger wird: Wie lassen sich offene Debatten im Netz ermöglichen, ohne dass einzelne Menschen beleidigt, gedemütigt und ganze Gruppen diskriminiert werden. Es geht um die Balance zwischen Meinungsfreiheit und Menschenwürde im digitalen Zeitalter. Und eine Antwort ist derzeit noch nicht in Sicht.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.

ISC High Performance 2024 (12.–16. Mai 2024): Alle News auf der Themenseite!