Hamburger85 schrieb:Es sind einfach zu komplexe Vorgänge für eine Maschine. KI kann nur für einfachere und abeschlossene Tätigkeiten eingesetzt werden, wie an einer Kasse oder First-level in einem Callcenter.
Da kann ich ein wenig aus dem Nähkästchen plaudern. Bei mehreren Arbeitgebern habe ich diverse Projekte bezüglich KI-Agenten fachlich begleitet. Die Erfolgsrate war mit 0 % erkenntnisreich.
Warum null?
Viele KI-Agenten scheitern schon an den Eventualitäten. Selbst der First-Level-Support, der gerne belächelt wird, entspricht in der Praxis selten dem Schema F, bei dem die Abläufe immer dieselben sind. Der Input variiert, demzufolge auch die Reaktion derer, die im First-Level-Support arbeiten. Selbst wenn es sich im Kontext um ein ähnliches Thema handelt, muss die Anfrage immer richtig eingeordnet werden, egal, wie der Informationsgrad (niedrig oder hoch) ist. Fehlende Informationen müssen herangeholt werden, um eine Lösung erarbeiten zu können. Am Ticket muss auch jemand dranbleiben, damit es nicht in der Warteschlange versickert.
Fast alle KI-Lösungen sollten die Supportmitarbeiter entlasten, indem sie Lösungen vorschlagen. Im ersten Testfeld hatten die KI-Agenten nur Zugriff auf das bisher genutzte Ticketsystem. Die Lösungsvorschläge waren erwartungsgemäß grottig, weil schon die Ticketdokumentation schlecht war. Das Ergebnis war aber schon vorher allen Beteiligten bewusst. Im zweiten Testfeld hatten die KI-Agenten nur Zugriff auf das Internet. Sie schlugen den Supportmitarbeiterin irgendwelche 0815-Lösungen vor, die in vielen Fällen am Thema vorbei gingen. In etlichen Fällen wurde ein Problem halluziniert, dass es so gar nicht gab. Aus einem "flackernden Bildschirm" wurde ein Major-Incident, bei dem der KI-Agent dem Supportmitarbeiter empfohl "umgehend einen Entstörungsdienst beauftragen". Wofür?
Ein anderer KI-Agent entzündete ebenfalls zu einem "flackernden Bildschirm", welcher über Microsoft Teams gemeldet wurde, einen viertägigen Marathon, indem er dem Anfrager Informationen entlocken möchte, die fehlen, um das Ticket richtig routen zu können. Obwohl beim Anfrager eine Abwesenheitsnotiz hinterlegt war, begann der KI-Agent kurzerhand Selbstgespräche zu führen. Am fünften Tag, einem Sonntag, schloss es das Ticket mit der Lösung "Anfrage gelöst.". Selbst der Anbieter war am Ende ratlos.
Ein anderer Anbieter behauptete "maximale Effizienz" liefern zu können, indem es beispielsweise "eingehende Tickets kategorisiert und richtig routet". Man behauptete, aus eingehenden Informationen "die richtigen Daten extrahieren" zu können. Am Ende erfindet der KI-Agent neue Modelle von Bildschirmen, um offene Formularfelder auszufüllen, oder es sendet dem Anfrager den Link zu einem Handbuch eines anderen Herstellers zu. Es kann eine Dockingstation nicht identifizieren, obwohl es vollen Zugriff auf eine gepflegte CMDB hat, in der dem Anfrager eine Dockingstation mit allen erforderlichen Informationen (Hersteller, Modell, Seriennummer, Anschlüsse usw.) zugewiesen ist.
Alle KI-Agenten scheiterten schon daran, den Supportmitarbeitern und Anfragenden einfachste Lösungsvorschläge zu liefern, die man gemäß OSI-Modell anwendet. Das Traurige daran ist, dass viele Anbieter aus dem IT-Umfeld kommen und daher wissen müssten, wie man Lösungen erarbeitet.
Selbst namhafte Unternehmen, die mit KI im Kundenservice hantieren, scheitern oftmals schon im Erstkontakt. Auch viele KI-basierte Chatbots sind Paradebeispiele dafür, wie man versucht, fehlende Fachkräfte und Regionalität mit "Künstliche Intelligenz" zu kompensieren, die aber selbst zu einfachsten Themen strunzdumm sind. TOBi von Vodafone ist da nur exemplarisch.
Am Ende sind Zeitaufwand und Kosten so hoch, der praktische Mehrwert wiederum so gering, dass solche Projekte schnell mal zu "experimentellen Zwecken" heruntergestuft werden, um nicht ganz blöd dazustehen.