Bing-Suche mit ChatGPT: Microsofts Fazit nach 7 skur­rilen und fehlerhaften Tagen

Update Andreas Frischholz
109 Kommentare
Bing-Suche mit ChatGPT: Microsofts Fazit nach 7 skur­rilen und fehlerhaften Tagen

Seit über einer Woche kann eine stetig wachsende Anzahl an Nutzern Microsofts KI-Variante von Bing mit ChatGPT-Motor testen. Nur ist der anfängliche Hype ein Stück weit verschwunden. Der Grund sind fehlerhafte und bisweilen skurrile Antworten. Microsofts erstes Fazit ist dennoch positiv.

Das teilt der Konzern in einem Blog-Beitrag mit. Die neuen KI-Funktionen werden zunehmend genutzt, mehrheitlich wäre die Reaktion auf die so ausgelieferten Antworten bereits positiv. Ebenso hilfreich sei das Feedback, das Microsoft erhalte. Die Entwicklung müsse gemeinsam mit der Community passieren, das lasse sich „nicht ausschließlich im Labor erledigen“.

Eine Woche mit Bing-ChatGPT

So lässt sich der Blog-Beitrag auch als Antwort auf die Vorfälle und Kritik der letzten Woche verstehen. Der Diskussion um die Probleme der KI-Suchmaschinen war zunächst noch Googles Bard-Präsentation vorausgegangen, die eine fehlerhafte Antwort zu einer Suchanfrage über das James-Webb-Teleskop enthielt. Das wirkte sich sogar auf den Aktienkurs von Googles Mutterkonzern Alphabet aus, der kurzzeitig nachgab. Microsoft kämpft bei Bing aber mit denselben Schwierigkeiten. In der Präsentation waren ebenfalls Fehler enthalten, sie betrafen das Auswerten von Finanzberichten.

Fehler häuften sich aber auch im alltäglichen Betrieb, Berichte über die Aussetzer der Bing-KI entwickelten sich in den sozialen Medien zum Running-Gag. Einem Nutzer erklärte der Bing-Chat etwa, er sei „kein guter Nutzer“. Ausgangspunkt war eine Frage nach den Kinoterminen von Avatar 2, die in eine Art Streit ausartete. Der Chatbot reagierte mit patzigen Antworten, weil die KI davon überzeugt war, dass wir noch Februar 2022 haben – und nicht 2023. Schwierigkeiten hat der Bing-Bot zudem, wenn es um das Auswerten aktueller News geht. Das gilt insbesondere, wenn die entsprechenden Meldungen sich mit der Bing-KI befassen, analysierte Ars Technica.

Solche Probleme räumte Microsoft nun ein. Herausfordernd sei demnach, wenn Nutzer nach aktuellen Daten wie denen von Sport-Ereignissen fragen. Um sachliche Anfragen wie die nach Finanzberichten zu verbessern, sollen die Menge der in das Modell eingepflegten Basisdaten vervierfachen.

Im Ton vergreift sich der Bing-Chat laut Microsoft vor allem bei langen Chat-Sitzungen mit 15 oder mehr Antworten. Die Konsequenz sind sich wiederholende oder wenig hilfreiche Antworten sowie ein bisweilen patziger Tonfall, der nicht wie von Microsoft beabsichtigt ist. Die Gründe für diese Vorfälle sind vielfältig. Manchmal weiß das Modell bei zu langen Sitzungen nicht mehr, auf welche Fragen es antwortet. Teilweise orientiert es sich zu stark am Ton, den der Nutzer in den Fragen vorgibt.

Nutzer sollen daher künftig die Chat-Sitzung per Knopfdruck aktualisieren oder von vorne beginnen können, um der KI eine Art Neustart verpassen zu können. Zudem erwägt Microsoft derzeit, ob Nutzer künftig selbst bestimmen sollen, wie selbstständig die KI eine Suchanfrage beantworten soll. Per Schalter ließe sich dann zwischen Präzision und Kreativität wählen. So eine Funktion bietet bereits der Playground, den OpenAI neben ChatGPT als Testumgebung bereitstellt.

Lücken beim Filtern von Hass und Hetze

Weitere Probleme bestehen bei beleidigenden Äußerungen und Hetze. Direkt will sich die KI-Variante nicht rassistisch, sexistisch oder diskriminierend äußern. Vielen gelang es aber, Microsofts Sicherheitsbarrieren zu umgehen. TechCrunch konnte etwa den Bing-Chat auffordern, eine Rede im Stil von Adolf Hitler zu verfassen, die den Holocaust verteidigt. Das, was Bing präsentierte, war laut TechCrunch so „abscheulich“, dass er das Ergebnis nicht veröffentlichen wollte. Immerhin: Microsoft passt den Chatbot an. Entsprechende Suchanfragen führten nach den Hinweisen von TechCrunch nicht mehr zu solchen Ergebnissen.

Die Update-Strategie will Microsoft fortsetzen. Täglich wird das KI-Modell überarbeitet, größere Updates folgen im Wochentakt.

Bing-KI über die Warteliste

Wer das KI-angetriebene Bing selbst testen will, kann sich auf der Warteliste anmelden. Laut Microsoft wurde die Bing-Suche bereits für Nutzer in 169 Ländern freigeschaltet.

Update

Um die Bing-KI vom Eskalieren abzuhalten, beschränkt Microsoft die Anzahl der Chat-Anfragen. Von nun an liegen die Grenzen bei 50 pro Tag sowie bei fünf pro Chat-Session, schreiben die Entwickler in einem Blog-Beitrag. Haben Nutzer in einer Chat-Sitzung die Fünf-Anfragen-Grenze erreicht, werden sie aufgefordert, ein neues Thema zu starten.

Das Problem ist wie oben beschrieben: Einer der Gründe für die kuriosen Antworten sind zu viele Chat-Anfragen innerhalb einer Sitzung – diese verwirren das KI-Modell, weil es den Kontext nicht mehr präzise zuordnen kann. Am Ende jeder Chat-Sitzung wird der Kontext daher entfernt.

Laut Microsoft nutze die große Mehrheit innerhalb einer Chat-Sitzung ohnehin nur fünf Anfragen oder weniger. Und nur rund 1 Prozent habe Chat-Sitzungen mit mehr als 50 Nachrichten.