Analyse: Facebooks Kampf mit der Wahrheit

 2/3
Andreas Frischholz
93 Kommentare

Auswege aus dem Schlamassel

Die Aufgabe der sozialen Netzwerke ist nun, für geordnete Verhältnisse zu sorgen. Kein dankbarer Job. Allerdings gibt es bereits mehrere Vorschläge, wie sich zumindest das Problem mit den Falschmeldungen lösen lässt. Den ersten Vorstoß unternehmen Facebook und Google bereits in dieser Woche:

Fake-News-Seiten den Geldhahn abdrehen

Am Montag hatte zunächst Google angekündigt, dass Webseiten aus dem Werbenetzwerk AdSense fliegen sollen, wenn diese sich auf das Verbreiten von Falschmeldungen spezialisiert haben. So soll den jeweiligen Anbietern die finanzielle Grundlage entzogen werden. Wenig später ist dann Facebook nachgezogen. Die Richtlinien für das Audience Network untersagen ohnehin schon, dass keine Werbung auf Seiten angezeigt wird, die auf irreführende oder illegale Inhalte setzen. Nun wurde die Klausel um Fake-News-Seiten erweitert. „Wir haben die Richtlinien aktualisiert, um explizit klarzustellen, dass diese auch für gefälschte Nachrichten gilt“, sagte ein Konzern-Sprecher der New York Times.

Es ist also eine erste Reaktion auf die anhaltende Kritik. Interessant wird nun, wie präzise sich die Vorgaben umsetzen lassen. Buzzfeed analysierte während des Wahlkampfs etwa den Wahrheitsgehalt von Artikeln, die die jeweils drei größten Seiten aus dem rechten und linken Spektrum verbreiten. Das Resultat: Bei den Rechten waren 39 Prozent der Meldungen teilweise oder vollständig falsch, bei den Linken rund 19 Prozent.

Um Falschmeldungen zu identifizieren, will nun Google sowohl auf automatisierte Verfahren als auch menschliche Bewertungen setzen. Allerdings ist die Abgrenzung schwierig, Satireseiten wie etwa The Onion will man nicht aus dem Werbenetzwerk verbannen. Es zeichnet sich also jetzt schon ab: In der Praxis wird es einige Probleme geben.

Nutzer sollen Falschmeldungen melden

Eine weitere Idee ist, dass Facebook-Nutzer künftig selbst aktiv werden, um gefälschte Nachrichten zu identifizieren. Zuckerberg : „Wir arbeiten bereits daran, dass unsere Community die Möglichkeit erhält, Hoaxes und gefälschte Nachrichten selbst zu kennzeichnen.“ Laut dem jüngsten Buzzfeed-Bericht prüft Facebook derzeit, ob man genug Ressourcen hat, um die von Nutzern gemeldeten Falschmeldungen abzuarbeiten. Im Gespräch ist zudem ein System, das die Plattform automatisch nach fragwürdigen Inhalten durchsucht.

Ob nun automatisch oder per Hand: Angesichts der aufgeheizten Stimmung in den politischen Lagern ist kaum vorstellbar, wie so ein auf Selbstkontrolle der Nutzer ausgelegtes Konzept nicht im Fiasko enden soll. Wegweisend ist da der Streit um die Hasskommentare in Deutschland. Facebook wird immer noch für willkürliche Löschkriterien kritisiert, selbst Beiträge mit offenkundig rassistischen Inhalten werden nicht entfernt. Auf der anderen Seite gibt es aber den berechtigte Einwand: Wer definiert überhaupt Hassbeiträge? Was den einen stört, ist für den anderen noch legitim. Und Facebook wirkt in der Rolle als Schlichter so überfordert, dass es eher ein Teil des Problems als der Lösung ist.

Bei den gefälschten Nachrichten droht im Prinzip nun dasselbe: Was für die einen offenkundiger Blödsinn ist, bewerten andere als wahrheitsgetreuen Bericht. Da einen gemeinsamen Nenner zu finden, wirkt geradezu utopisch.

Festes Nachrichtenteam, um Wahrheitsgehalt zu prüfen

Dass sich Facebook selbst in der Regel als Plattform bezeichnet, die nicht für die Inhalte der Nutzer verantwortlich ist, stößt vielen bitter auf. Angesichts der Vielzahl an kursierenden Falschmeldungen lautet daher die Forderung: Facebook müsse eine Redaktion einstellen, um zumindest bei den Trending Topcis zu überprüfen, ob die in dieser Sektion dargestellten Inhalte überhaupt stimmen.

Der Haken: Im Frühjahr hatte Facebook noch ein Nachrichtenteam, das – unterstützt von einem Algorithmus – für die Auswahl der Trending Topcis verantwortlich war. Ehemalige Mitarbeiter warfen dem sozialen Netzwerk aber vor, insbesondere konservative Inhalte würden unterdrückt oder nicht angemessen berücksichtigt werden. In einer internen Untersuchung kam Facebook zwar zu dem Schluss, dass es keine Manipulation gegeben habe. Dennoch wurde der Faktor Mensch aussortiert, mittlerweile ist praktisch ausschließlich der Algorithmus für die Auswahl der Trending Topics verantwortlich.

Es ist eine Episode, die Spuren hinterlassen hat. Die New York Times zitiert einen Mitarbeiter mit der Aussage, Facebooks Wille wäre gelähmt, wenn es um Veränderungen gehe, die womöglich die Objektivität des Unternehmens in Frage stellen. Ebenso zurückhaltend äußerte sich Mark Zuckerberg am Wochenende.

Ich denke, dass das ein Bereich ist, in dem wir sehr sorgfältig vorgehen müssen. Die „Wahrheit“ zu identifizieren ist kompliziert.

Mark Zuckerberg

Manche Falschmeldungen sind zwar offensichtlich und leicht zu entlarven, bei den meisten Inhalten – auch bei solchen von Massenmedien – sei das aber nicht ohne Weiteres möglich. Denn oftmals stimme zwar der Kern einer Geschichte, allerdings sind Details verkehrt oder werden weggelassen, so Zuckerberg. Für Facebook sei es daher äußerst heikel, als „Schiedsrichter der Wahrheit“ aufzutreten.

Allein diese Worte verdeutlichen schon, in welchem Dilemma Facebook derzeit steckt. Sich einfach auf die Rolle des Plattformbetreibers zurückziehen, das funktioniert nicht mehr. Und der Haken bei den Alternativen ist, dass jeder Ansatz neue Probleme im Schlepptau hat. Ein einfacher Weg existiert nicht.

25 Jahre ComputerBase! Im Podcast erinnern sich Frank, Steffen und Jan daran, wie im Jahr 1999 alles begann.