Interview: Neue Regeln für KI-Welt und Open Source

 3/3
Andreas Frischholz
141 Kommentare

ComputerBase: Derzeit kursieren viele Ideen, wie sich die aktuellen Sprachmodelle regulieren lassen. Verschiedene Vorschläge kamen auch von den führenden Anbietern. So sprechen OpenAI und Sam Altman von hohen Standards für besonders leistungsfähige Modelle, eine internationale Aufsicht nach dem Vorbild der Atomkontrollbehörde IAEA und einem Lizenzsystem für Foundation-Modelle. Wie bewerten Sie diese Vorschläge?

Prof. Antonio Krüger: Die große Sorge der großen Player wie OpenAI und Google ist, dass Open Source und die ganzen Graswurzel-Initiativen ihnen die Geschäftsmodelle ruinieren. Ich glaube daher, die Forderungen zielen darauf ab, die Kleinen möglichst klein zu halten. Eine massive Regulierung würde nur noch den Wenigen einen Marktzugang ermöglichen, die eben die Standards einhalten können. Solche Vorgaben sind aber nicht notwendig. Man braucht gute Regeln, was man mit den Systemen macht. Die Technologie selbst sollte man aber nicht regulieren. Das halte ich sogar für schädlich. Sowas ist nur einigen Großen zuträglich, die sich das leisten können, während die ganzen kleinen Anbieter mit den kreativen Ideen hinten herunterfallen. Das kann nicht in unserem Interesse sein.

ComputerBase: Was wären gute Regeln?

Prof. Antonio Krüger: Ich glaube schon, dass man auf jeden Fall die Hochrisiko-Anwendungen regulieren muss. Der Anwendungsbereich ist entscheidend. Das gilt besonders, wenn Systeme autonom über Menschen bestimmen und diese damit starken Einfluss auf das Leben des Einzelnen haben, ohne dass diese sich dem entziehen können. Ob bestimmte Sachen dann überhaupt nicht gemacht werden dürfen, muss jede Gesellschaft für sich entscheiden. Die EU führt da eine gute Diskussion – also etwa über die Frage, ob und wie man Gesichtserkennung zulassen möchte.

Bei anderen Anwendungen wie denen im Consumer-Bereich, wo man sich durch Entzug schützen kann, muss man nichts machen. Wie ein Empfehlungs- oder komplexes KI-System bei Amazon funktioniert, ist mir ehrlich gesagt egal. Da kann jeder selbst entscheiden, ob er die Services gut findet. Für die Kontrolle haben wir in solchen Fällen ein Kartellamt, aber ich bin mir sicher, dass da auch ein Markt existiert.

ComputerBase: Da wir nun beim AI Act der EU* sind: Generative KI-Tools wie ChatGPT wurden erst spät bei diesem EU-Gesetz aufgegriffen. Muss man sie separat regulieren?

Prof. Antonio Krüger: Ich bin dagegen, jetzt direkt generative KI zu regulieren. Es hängt, wie gesagt, von der Anwendung ab. Hat diese einen manipulativen Charakter wie zum Beispiel ein Chatbot, der mir eine Versicherung verkaufen soll, dann sollten schon gewisse Regeln gelten. Kriminelle Sachen sollten ebenfalls unterbleiben, aber die sind auch heute schon verboten.

ComputerBase: Auch generative Chatbots kann man demnach nicht einfach in eine bestimmte Kategorie packen?

Prof. Antonio Krüger: Das halte ich für Quatsch. Es gibt Chatbots, die etwa einfach nur Informationen zu einem Produkt liefern könnten. Wenn ich statt einer Bedienungsanleitung einen Chatbot verwenden kann, sehe ich überhaupt kein Problem. Wenn es ein Chatbot ist, der mir eine medizinische Diagnose vermitteln möchte, ist es eine andere Geschichte.

ComputerBase: Das EU-Parlament hat in einem der letzten Entwürfe die Forderung aufgenommen, dass die Anbieter von Basismodellen ihre Trainingsdaten offenlegen müssen, sodass sich die Inhalte etwa auf urheberrechtliche Ansprüche prüfen lassen. Wie bewerten Sie solche Transparenzpflichten?

Prof. Antonio Krüger: Solche Transparenzvorgaben an kommerzielle Anbieter halte ich nicht für sinnvoll. Es ist Teil der Geschäftsprozesse und Sie können Firmen – wie andere Branchen auch – nicht verpflichten, ihre Geschäftsgeheimnisse zu veröffentlichen. Sonst würde sich keiner mehr bemühen, irgendetwas Neues zu erfinden. Ich halte es auch für sehr fragwürdig, bei diesem Aspekt auf das Urheberrecht zu verweisen. Künstler wie Maler wurden schon immer von bestehenden Werken inspiriert.

Nun muss man zunächst abwarten, was die Gerichtsurteile ergeben, die im Raum stehen. Ich glaube aber, am Ende spielt das Urheberrecht dann eine Rolle, wenn es im Endergebnis ganz klare Kopie-Elemente gibt. Solange es diese nicht gibt, kann man das Urheberrecht meiner Meinung nach nicht anwenden – und man sollte es auch nicht. Das wäre eine komplette Innovationsbremse.

ComputerBase: OpenAI ist aber zum Beispiel mit dem Anspruch gestartet, offen zu sein und Forschung für alle zu betreiben.

Prof. Antonio Krüger: Als klar wurde, dass es funktioniert, haben sie damit ganz schnell aufgehört (lacht). Sie sind alles andere als offen, eigentlich ist es Closed AI. Als Gesellschaft haben wir natürlich schon ein großes Interesse daran zu verstehen, mit welchen Daten so ein Modell wie GPT-4 trainiert wurde. Das erfolgt aus den Gründen, die wir schon besprochen haben, also aufgrund der ganzen Risiken. Diese kann man dann trotzdem nicht vermeiden, aber man kann sie vermutlich besser einschätzen. Denn klar ist: Je besser die Qualität der Eingabedaten, desto besser ist auch die Ausgabe.

Deswegen bin ich sehr dafür, dass wir schon auch in Europa ein großes Basismodell trainieren und bei den Trainingsdaten völlig transparent sind. Am besten sollte das mit Beteiligung der öffentlichen Hand passieren, damit einzelne Unternehmen sich keine Vorteile verschaffen können. Möglich ist so etwas zum Beispiel in einer Public-Private-Partnership. Neben Transparenz bei den Daten sollte so ein Modell auch möglichst hochqualitative Daten verwenden und Open Source sein, sodass es die europäische Gesellschaft weiterverwenden kann – und zwar auch für die kommerzielle Nutzung. Für so etwas plädiere ich nachdrücklich und unterstütze auch entsprechende Aktionen.

Dafür gibt es den Begriff vom CERN für KI. CERN ist eine europäische Forschungseinrichtung für die Kernphysik, die ein Instrument betreibt, das für alle zugänglich ist, und von den Ergebnissen profitieren alle. So etwas benötigen wir auch für KI-Entwicklung und in Europa könnten wir die dafür erforderlichen Summen auch finanzieren. Geschäfte würden Unternehmen in einem solchen Fall nicht mehr mit dem Basismodell, sondern mit weiteren Trainingsrunden machen – also der Spezialisierung auf bestimmte Disziplinen. Da gibt es noch so viel zu tun und so viele Anwendungen, dass sich die Privatwirtschaft kreativ austoben und auch Geld verdienen kann. Doch im Kern hätten wir ein Basismodell, das transparent oder zumindest so transparent wie möglich entwickelt wurde.

ComputerBase: Bietet ein solcher Ansatz auch die Chance, die Machtkonzentration der Big-Tech-Konzerne einzudämmen, oder muss so etwas eher über die Regulierung laufen?

Prof. Antonio Krüger: Die großen Tech-Konzerne versuchen natürlich, ihre Geschäftsmodelle – auch die der großen Sprachmodelle – so lange wie möglich am Leben zu erhalten. Open Source wird aber kommen, davon bin ich fest überzeugt. Natürlich ist das immer ein wenig Wildwuchs und auf globalem Maßstab gibt es nur ganz wenige Open-Source-Erfolgsgeschichten, die wirklich gut funktionieren. Linux ist eines der Beispiele. Und so ein Linux-Ökosystem müsste man auch für die Sprachmodelle hinbekommen. Das würde ich im Moment präferieren.

ComputerBase: Wie wird sich der AI Act auf Open Source auswirken?

Prof. Antonio Krüger: Der AI Act darf nicht dazu führen, dass Open Source untergebuttert wird, weil die Regulierung nur durch große Firmen zu stemmen ist. Dazu haben Kollegen und ich einen offenen Brief unterzeichnet und ich denke, die EU korrigiert sich in diesem Bereich noch etwas. Im Grunde ist der AI Act aber eine gute Sache. Man muss nur aufpassen, dass man flexibel genug bleibt, um auf technologische Entwicklungen reagieren zu können.

ComputerBase: Eine abschließende Frage: Wird die KI-Entwicklung derzeit überhypt, oder ist es wirklich eine technologische Zeitenwende?

Prof. Antonio Krüger: Ich glaube schon, dass es ein unglaublich mächtiger Technologie-Baustein ist. Das gilt für die generative KI, aber gerade auch im Zusammenspiel mit anderen KI-Techniken, die wir schon kennen – also etwa Empfehlungssystemen. Ich denke aber, dass es mehr als Werkzeug einen Unterschied machen wird und weniger als eine Technologie, die komplett disruptiv ist.

Alle Arbeitsplätze, die irgendetwas mit Wissen machen, wird es voraussichtlich stark verändern. Aber ich glaube nicht, dass das zu riesiger Massenarbeitslosigkeit führen wird. Stattdessen wird sich die Produktivität des Einzelnen deutlich steigern und zu einem gewissen Grad auch die Qualität. Das ist gut, weil wir zumindest in den westlichen Ländern, aber tendenziell auch weltweit, auf eine demografische Krise zusteuern. Wenn wir nicht unsere Produktivität drastisch in allen Bereichen steigern, werden wir faktisch unseren Qualitäts- und Service-Level in der Gesellschaft nicht halten können. Denken Sie etwa an vernünftige ärztliche Betreuung, die Pflege und so weiter. Da, glaube ich, sind die KI-Systeme schon eine große Chance und eine gute Antwort auf dieses Defizit, das uns droht.

*Das EU-Parlament hat sich mittlerweile auf eine finale Verhandlungsposition für den AI Act verständigt. Die Abstimmung erfolgte nach dem Interview.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.