Spannendes Thema. Irgendwo bin ich zwiegespalten.
Einerseits ermöglichen es die Chatbots Probleme wirklich schnell zu lösen bzw. Fragen zu beantworten, ohne das man sich ewig durch SEO-Höllen klicken muss. Setzt natürlich eine gewisse "Kompetenz" voraus, zu erkennen, ob die Antwort jetzt Bullshit ist oder nicht. Es steht und fällt halt mit der Medienkompetenz.
Nachteilig ist, dass noch mehr eine Konzentration auf die Giga-Konzerne stattfindet (Das Cyberpunk-Genre sollte eine Dystopie sein, keine Anleitung!) die eine unfassbare Macht bei der Meinungsbildung haben, durch ihre steuernden Algorithmen (wobei das nichts neues ist. Früher war es SEO (wobei da bei weitem nicht so schlimm), später dann "social" Media (da wurde es dann richtig schlimm). "Mega-Apps" als die Zukunft zu sehen, empfinde ich auch als hochgradig dystopisch.
Als sehr nachteilig empfinde ich ebenfalls das Problem, dass LLM dafür sorgen, dass weniger Traffic bei den eigentlichen Seiten landet und diese dadurch nach und nach wegsterben und damit "verstummen". Mag sein, dass die großen Player untereinander Deals machen. Aber wem nützt es, dass Springer einen Deal mit OpenAI hat, außer, dass der Bias von Springer über die Zeit sehr wahrscheinlich in die Ergebnisse einfließt und progressive Veränderungen der Gesellschaft durch schleichende und sehr subtile Wiederholung unwahrscheinlicher werden? Mag auch sein, dass die Anbieter auch Deals mit "progressiven" Medienhäusern machen. Das ändert aber nichts am Ergebnis, dass das nur die ganz großen sein werden. Wer sich umfassend informieren will, wird um (dann wohl sehr teure) Abos kleinerer Medien nicht herumkommen, die dann ausschließlich noch durch Abos existieren werden, weil das aktuelle Werbegeschäft usw. mehr oder weniger sterben und sich auf Ads innerhalb von Instagram/Facebook/YouTube/... reduzieren wird.
Die große Masse wird zukünftig einfach das sehen und letztendlich glauben, was Google/Gemini oder ChatGPT ausspuckt. Möglichst bequem, möglichst schnell, möglichst wenig Aufwand. Siehe auch hier in den Kommentaren, wo manche sagen, dass sie nur noch mit ChatGPT arbeiten und das "immer passt". Je öfter man das Gefühl hat "das stimmt" (und die Tools sind darauf entwickelt, dir das Gefühl zu geben), desto weniger hinterfragt man. Gerade bei Themen, mit denen man sich nicht auskennt. Womit wir wieder beim Thema "Medienkompetenz" sind (und seien wir ehrlich - da sind wir verloren. Wenn man bereits den offensichtlichen Bullshit glauben will, der bei Telegram, Facebook o.ä. verbreitet wird, dann wird man auf Deepfakes nicht weniger hereinfallen.)
LLM sind keine "denkende" "KI". Es ist einfach nur Wahrscheinlichkeit. Wiederholt man Lügen oft genug, wird diese auch von den Chatbots wiedergegeben erkannt. Siehe bereits aktuell die russischen Bemühungen, über Contentfarmen die LLMs zu "vergiften". Ich vermute, wir werden hier also die gleiche Entwicklung sehen wie bei dem SEO-Müll - ein Wettrüsten und ich befürchte das Ergebnis wird ähnlich sein.
Ich weiß auch nicht, ob die LLM sich nicht irgendwann selbst fressen. Man hat ja jetzt einen Stand der sich zu guten Teilen aus menschlichem Input generiert. Mit der Zeit wird der Anteil der LLM-generierten Inhalte immer größer werden. Kommt denn dann überhaupt noch genug menschlicher Input nach? Wahrscheinlich schon, weil es sowas wie Foren o.ä. immer geben wird und Newsseiten o.ä. ja auch weiterhin existieren werden (wenn dann auch mit LLM-optimierten Texten)