OpenAI Developer Conference: Leistungsfähigeres Modell für ChatGPT mit Wissen aus 2023

Andreas Frischholz
38 Kommentare
OpenAI Developer Conference: Leistungsfähigeres Modell für ChatGPT mit Wissen aus 2023
Bild: OpenAI

Auf der ersten hauseigenen Developer Conference hat OpenAI neue Funktionen angekündigt. Mit GPT-4 Turbo präsentierte man eine leistungsfähigere und günstigere Version des Sprachmodells mit aktuelleren Daten. Kunden erhalten zudem die Möglichkeit, eine für die jeweiligen Bedürfnisse angepasste Version von ChatGPT einzurichten.

Turbo-Variante des Spitzenmodells

GPT-4 Turbo ist somit OpenAIs neues Spitzenmodell, das mit aktuelleren Daten trainiert wurde. Der Wissensstand endet erst im April 2023 – zuvor war im September 2021 Schluss, sofern man etwa bei ChatGPT nicht über Plugins auf aktuelle Informationen zugegriffen hat. Erhöht wurde zudem die Anzahl der Tokens, mit denen die Modelle umgehen können. Bei GPT-4 lag die Grenze bislang bei 8.000 in der normalen Version und 16.000 in einer angepassten Version. Nun liegt die Grenze bei 128.000.

Token sind die Textbausteine, mit denen die Sprachmodelle neue Wörter generieren. Die technischen Details erklärt ComputerBase in einem Hintergrundartikel.

Mit der neuen Token-Grenze kann GPT-4 Turbo nun rund 300 Seiten Text in einer einzigen Prompt-Eingabe verarbeiten. Das heißt: Es ist nun möglich, komplette Bücher zu erfassen. Davon profitiert auch ChatGPT, denn bislang war die Token-Grenze bei GPT-4 und GPT-3.5 vergleichsweise niedrig. Konkurrenten wie Anthropics Claude 2 können jetzt schon mit 100.000 Token umgehen.

GPT-Modelle: Preise und Token-Grenzen
GPT-Modelle: Preise und Token-Grenzen (Bild: OpenAI)

Optimiert wurde auch die Performance. Daher sei es laut OpenAI nun möglich, die Preise zu senken. Im Vergleich zum herkömmlichen GPT-4-Modell sinken die Kosten bei Eingaben von 0,03 Cent auf 0,01 Cent und bei Ausgaben von 0,06 auf 0,03. Angepasst wurden die Preise auch bei dem GPT-3.5-Turbo-Modell sowie der entsprechenden Finetuning-Variante.

Anpassbare Varianten von ChatGPT

Neben den neuen GPT-4-Varianten bietet OpenAI nun auch individuell anpassbare Versionen von ChatGPT an, die unter dem Titel GPTs laufen. Programmierfähigkeiten sind für das Erstellen nicht erforderlich, Bots lassen sich mit natürlicher Sprache einrichten. Anpassen lassen diese sich mit eigenen Datensätzen, zudem können Nutzer ChatGPT-Plugins wie die Data Analysis, Webbrowsing mit Bing oder Dall-E 3 als Bildgenerator integrieren.

OpenAI verteilt die neuen Funktionen von jetzt an Nutzer von ChatGPT Plus und Enterprise. Die ersten Beispiele wie eine Variante mit dem Grafik-Tool Canva sind seit gestern verfügbar. Noch ist das Update aber nicht bei allen Nutzern angekommen. Im Laufe dieses Monats soll zudem eine Art App Store für die GPTs folgen.

ChatGPT individueller an die Bedürfnisse der Nutzer anpassen, ist die Strategie, die OpenAI seit geraumer Zeit verfolgt. Im Sommer führte man bereits Voreinstellungen als Funktion ein. Nutzer können damit bestimmte Angaben zu sich selbst machen, die der Chatbot bei Antworten dann immer berücksichtigt.

Finetuning und mehr API-Support

Darüber hinaus bietet OpenAI Finetuning-Modelle, die Unternehmen nutzen können, um die bestehenden GPT-Modelle mit eigenen Trainingsdaten zu optimieren. Für GPT-4 soll ebenfalls eine Finetuning-Variante erscheinen. Weil das Modell anspruchsvoller ist, lassen sich separate Optimierungen allerdings nur schwieriger umsetzen.

Neuheiten gibt es auch bei weiteren OpenAI-Diensten wie dem Bildgenerator Dall-E 3, den Entwickler nun über die API in eigene Anwendungen integrieren können. Ebenso gibt es nun API-Support für die Vision-Version von GPT-4 Turbo, die auch Bilder als Eingabe verarbeitet, sowie den Text-zu-Sprache-Dienst von OpenAI.

„Copyright-Shield“ als Schutz vor Urheberrechtsklagen

Nutzer möchte OpenAI zudem vor Copyright-Klagen schützen. Intern gebe es bereits Schutzmechanismen, die verhindern sollen, dass rechtswidriges Material generiert wird. In einen zweiten Schritt erhalten Nutzer nun auch einen Rechtsschutz. Wie Microsoft oder Adobe will man also für potenzielle Kosten aufkommen, die aufgrund von Urheberrechtsklagen entstehen könnten.

Vor allem in den USA sind die Copyright-Klagen ein großes Thema. Eine Vielzahl von Autoren, Schauspielern und Kreativen wollen vor Gericht ziehen. Eine erste Entscheidung ist zuletzt aber zugunsten der KI-Firmen ausgefallen, ein Richter hat ein Verfahren nicht zugelassen. Entlastend ist dieser Beschluss aber noch nicht. Denn das Kernproblem war, dass Künstler wegen Bildern klagten, bei denen sie die Urheberrechte nicht angemeldet hatten – das ist in den USA aber erforderlich, um Ansprüche geltend zu machen.

Darüber hinaus müssen die Kläger explizit nachweisen, dass KI-Systeme Bilder erstellen, die den geschützten Inhalten so sehr ähneln, dass Urheberrechte verletzt sind. Abgewiesen ist das Verfahren damit noch nicht, da die Kläger die Möglichkeit haben, die Klage nochmals zu präzisieren. Zudem laufen noch zahlreiche weitere Verfahren.