OpenAI: ChatGPT erhält mit GPT-4 Turbo das schnellste AI-Modell

Andreas Frischholz
24 Kommentare
OpenAI: ChatGPT erhält mit GPT-4 Turbo das schnellste AI-Modell
Bild: OpenAI

Bereits im November 2023 hatte OpenAI bei der Entwicklerkonferenz GPT-4 Turbo als optimiertes AI-Modell präsentiert. Zuvor war es nur über die API abrufbar, ab jetzt können es auch Nutzer verwenden, die Zugang zu einer der Bezahlversionen von ChatGPT haben.

Verfügbar ist GPT-4 Turbo damit über ChatGPT Plus, Team, Enterprise und die API. OpenAI verspricht Verbesserungen beim Schreiben, dem Lösen von mathematischen Aufgaben, logischen Schlussfolgerungen sowie beim Programmieren. Das Modell wurde im Vergleich zur November-Version nochmals verbessert. Wie präziser die Antworten ausfallen, zeigt OpenAI auf einem Beispiel auf X.

Mit GPT-4 Turbo wird auch die Token-Grenze bei der Eingabe erhöht. Bei den älteren GPT-4-Modellen lag die bei 8.000 oder 32.000 Token, mit dem GPT-4 Turbo sind es 128.000 Token. Das entspricht rund 300 Seiten Text, die sich damit in einer einzigen Prompt-Eingabe verarbeiten lassen.

Das neue Modell wird schrittweise verteilt. Über das ChatGPT-Plus-Konto der Redaktion war es noch nicht abrufbar.