News ChatGPT: OpenAI gibt GPT-5 für alle Anwender frei

Fazit nach dem Wochenende: Chat-GPT 5 Pro scheint nicht nennenswert besser für Coding geeignet zu sein als O3 Pro. Das Problem ist, dass ich, obwohl ich einige Erfahrung besitze, vorher schlecht abschätzen kann, welche Aufgaben die KI noch zu bewältigen vermag und an welchen sie scheitert. Vermutlich hat es etwas mit der Zusammensetzungen der Trainingsdaten zu tun und damit, dass die KI grundsätzlich anders "denkt" (wenn man die Next-Token Prediction so bezeichnen will) als ein Mensch.

Wenn GPT Mist ausgibt, versuche ich die Prompts nach zu bearbeiten um dadurch eine bessere Antwort zu erzeugen oder das Model durch Folgeprompts in die richtige Richtung zu lenken aber das funktioniert längst nicht immer und kosten außerdem relativ viel Zeit. Wenn man eine Aufgabe kleinschrittig genug lösen lässt, dann klappt es fast immer aber dann ist man teilweise an dem Punkt, an dem man alles fast allein hätte machen können.
 
Zuletzt bearbeitet:
@Schwachkopp Das kann aber doch nicht sein. Google produziert doch schon 25% seines Codes mit AI, andere sind 10x produktiver mit AI und jeder "Schwachsinnige" kann doch jetzt dank Vibe Coding selbst mit Leichtigkeit production-ready Software erzeugen! Dann musst du das doch auch hinbekommen, streng dich mal an oder lass dir von einem der selbsterklärten "AI Expert & Enthusiast" auf LinkedIn erklären wie's geht. Also wirklich!

/s
 
  • Gefällt mir
Reaktionen: konkretor, Schwachkopp und knoxxi
DaysShadow schrieb:
Google produziert doch schon 25% seines Codes mit AI, andere sind 10x produktiver mit AI

Den Sarkasmus deines Posts habe ich wahrgenommen. 😉

Unabhängig davon: an welcher Stelle wird bei Google und Co. der Code erzeugt?

Also es muss da ja keinen Widerspruch zu Studien geben, dass erfahrene Entwickler bei großen Codebasen mit KI 20-30% weniger effektiv sind, wenn der erzeugte Code z.B. eher UI-Code ist, einfache APIs etc.
Davon abgesehen erzeugen allein viele Frameworks, etwa eine ORM bei .Net - Name habe ich gerade vergessen - auch ohne KI seit Jahren schon Tausende Zeilen Code.

Es ist also auch die Frage, wie diese Metrik bei den Techkonzernen zustande kommt.
 
@DaysShadow

Doch das kann schon sein. Ein paar mögliche Ursachen:

  • Mein Name ist Programm und ich bin inkompetent im Umgang mit LLMs. Obwohl ich die ganzen Standardtipps und Tricks kenne, und noch ein paar mehr, heißt das ja nicht, dass ich die vernünftig anwenden kann.
  • Meine Einschätzung war verfrüht. Vielleicht hatte ich nur etwas Pech bei meinen Versuchen am Wochenende und GPT 5 ist doch deutlich besser als seine Vorgänger.
  • Meine Erwartungshaltung ist unrealistisch. Wer sein Modell als "Research-grade Intelligence" vermarktet, darf sich dann aber nicht darüber beschweren, dass die Leute Einiges erwarten.
  • Firmen, die im LLM-Markt vertreten sind, haben natürlich ein Interesse daran ihre AIs zu pushen. Aussagen à la "x% unseres Codes wird bereits von unser supertollen KI produziert" sind daher mit Vorsicht zu genießen. Dabei muss das nicht einmal gelogen sein, sondern kann auch andere Ursachen haben: AI-Tools nicht länger optional

Am Ende des Tages sind AIs für mich schon nützlich aber irgendwie ein kleines bisschen überhyped.
 
calluna schrieb:
Davon abgesehen erzeugen allein viele Frameworks, etwa eine ORM bei .Net - Name habe ich gerade vergessen - auch ohne KI seit Jahren schon Tausende Zeilen Code.
Ich weiß, bin selbst Spring Boot Entwickler und etlicher Boilerplate Kram wird durch Annotations generiert. Aber wenn es dadurch bereits geht brauche ich da auch keine „KI“. Das was generiert wird ist deterministisch, der Output des LLM nicht.

calluna schrieb:
wie diese Metrik bei den Techkonzernen zustande kommt.
Eben das. Es wird aber gerne von genau den großen Techfirmen die an der ganzen AI Geschichte fett verdienen suggeriert, dass damit bereits ganze Entwickler ersetzt werden. Ist ja auch klar, Managementebene lässt sich bequatschen, kauft groß ein, streicht Stellen und die Entwicklungsabteilung bietet anschließend den Verantwortlichen dem Spaghettimonster als Opfer dar…:D

@Schwachkopp /s bedeutet „Sarkasmus Ende“. Dachte das wäre geläufiger 😅

Schwachkopp schrieb:
Am Ende des Tages sind AIs für mich schon nützlich aber irgendwie ein kleines bisschen überhyped.
Gleiches hier. Ich nutze ChatGPT auch und finde es als Werkzeug nützlich, aber verstehe dieses übermäßige Gehype nicht. Ich bleibe halt dran, damit ich nicht abgehängt werde, aber bislang kann ich nicht alles nachvollziehen, im Sinne der Anwendungsfälle. Vielleicht bin ich aber ja auch noch nicht erleuchtet und/oder bin zu unfähig :)
 
Zuletzt bearbeitet:
Kuristina schrieb:
Hab ich auch grad bei Golem gelesen. Aber auch bedenklich, wenn man da liest "GPT 4o war nicht nur eine KI für mich. Es war mein Partner, mein sicherer Ort, meine Seele". Da ändern die das Modell und einige Nutzer brauchen seelischen Beistand.
Das neue neue Modell hat wohl mit dem "glizzy, glizzy, glizzy" aufgehört.
Du konntest dem ja das absurdeste über dich erzählen, und der hat dich in allem bestätigt. Ob du ein Gott, oder auch einfach nur der schlauste oder der geilste warst. Du wurdest bestätigt und auch noch gepushed. Ist bestimmt gut für mental instabile Charaktere.
 
  • Gefällt mir
Reaktionen: Kuristina
Schwachkopp schrieb:
Ich habe deinen Sarkasmus schon erkannt lieber @DaysShadow aber gekonnt ignoriert, denn ich bin hier an einer ernsthaften Diskussion interessiert. ;)
Wie hast du die KI genutzt. Eher im Dialog oder mehr im Agent-Mode?

Nachdem wir es endlich nutzen (bzw. testen) dürfen, probier ich beim Arbeiten viel rum. Richtig eingesetzt, kann es viel Zeit sparen. Trotzdem passiert es oft genug, dass auch Zeit verschwendet wird. ChatGpt 5 find ich bisher nicht wirklich besser als Version 4. Zum Coden bleib ich bei Claude Sonnet - liefert mir einfach die besten Ergebnisse.
Achja: Bin momentan mit C# und ASP.NET unterwegs.
 
Enurian schrieb:
Also werde jetzt regelmäßig damit gegenprüfen, ob es allgemein besser als Claude ist, was bislang mMn die Krone trägt.

Generell die Krone? Mir ist Ckaude nur im Bereich Programmierer und BI Themen untergekommen. Da scheint es aber der Standard zu sein... Amazons Q noch bei Programmierern..
Ergänzung ()

Rock Lee schrieb:
Manchmal spricht er nämlich Wörter falsch aus oder lallt als wäre er angetrunken :freak: Zumindest gestern Abend war das so.
Du musst der AI auch mal ihr Feierabendbier gönnen.. Echt jetzt... Der soll wohl wie ne Maschine 24/7 rackern?
Echt jetzt?
Ergänzung ()

Spriti schrieb:
Und bei Entwicklern sehe ich das noch positiv. Wenn ich mir andere Bereiche angucke, wie Kreative, von denen die KI heute schon die meisten ersetzen kann. Oder so was wie Callcenter (die Geißel der Menschheit), die werden bald zu 100% durch KI ersetzt.

Du hast die Entwicklung bei Klanra beobachtet. Wohl nicht sonst wüsstest du es besser. Die gehen gerade von KI für den CallCenterAgent wieder weg - und wollen mehr Menschen an die Strippe bringen. Ich hatte einmal einen Fall. Die KI war genau dazu in der Lage mir das zu sagen was in der Buchung stand.
Es ging aber darum das diese falsch war. An echte Leute kam man zu der Zeit gar nicht.
 
Zuletzt bearbeitet:
@Boerkel
Bisher habe ich den Agent-Mode noch nicht getestet. Das läuft bei mir also bisher alles als Dialog entweder direkt über die GPT-Website oder über eine IDE (JetBrains PyCharm), wobei Letzteres gar nicht mal so gut funktioniert. Es ist gefühlt oft dümmer als wenn ich direkt die Website benutze oder es findet Dinge in der Codebase nicht oder in den freigegebenen Datei obwohl sie eigentlich da sind.

Im Thinking Modus sollte GPT 5 klar besser als jedes 4.x Model, alles andere würde mich schwer wundern. Alles ohne Reasoning ist für meine Aufgabe meistens ohnehin ungeeignet.
 
  • Gefällt mir
Reaktionen: Tobias0
@Chibi88 Jeder kann es nutzen, wenn er auf X ist. Grenze sind wohl 10 Anfragen oder so. Aber das reicht, ums mal gegen chatgpt anzutesten.
 
Zuletzt bearbeitet:
OpenAi hat jetzt auch die anderen alten LLM zurückgebracht:

Screenshot 2025-08-13 at 08.31.45.png
 
Ich schätze GPT-4o für seinen freundlichen, empathischen und manchmal auch witzigen Tonfall – Eigenschaften, die GPT-5 bisher eher vermissen lässt.:heul:
 
Mal Interessehalber. Gibts ne Möglichkeit in der free Variante zu Prüfen welches Modell gerade aktiv ist oder wann das Kontingent für 50 wieder zurückgesetzt wird oder wurde?
Ich hab bei ner komplexen Aufgabe das Limit gestern Nacht erreicht und ChatGPT Anweisungen mitgegeben nach der Rücksetzumg des Limits damit automatisch weiterzumachen.
Aber anscheinend weiss der ja selber nicht womit der gerade unterwegs ist und man kann auch nirgends irgend ein Modell auswählen oder einsehen wann was wieder verfügbar ist.
Das ist echt irritierend, man weiß nie ob man gerade mit dem Pofessor oder dem Dorftrottel spricht. 😓
 
Zurück
Oben