News Nach Code Red: OpenAI will in der nächsten Woche GPT-5.2 vorstellen

@Alphanerd, der weis nur nicht wann er mit seinem Geld abspringen soll, das nächste mal könnte eine Kugel im Lauf sein. ;)
 
  • Gefällt mir
Reaktionen: Alphanerd
Hab gestern mit chatgpt, die Business Version, Sensoren für Home Assistent programmiert. Ich bekam viel Murks der outdated oder deprecated war. Musste die KI ständig korrigieren.

Mit Gemini sah das ganz anders aus, deutlich weniger Input nötig. Ähnliches mit shell Scripts, da hab ich für Arbeit was komplexes gebraucht. Chatgpt hat den Code ohne Funktionen generiert, Gemini hat es ordentlich strukturiert, Funktionen und Main Funktion wo alles aufgerufen wird.

Generell muss ich chatgpt oft korrigieren
 
  • Gefällt mir
Reaktionen: bobitsch, Costar#2570 und Maggolos
Kontrapaganda schrieb:
Mich interessieren keine synthetischen Benchmarks sondern praktische Problemlösungskompetenz.
Same same.
Woher willst du wissen wie gut ein Model funktioniert wenn es keine Synthetischen Benchmarks benchmarks gibt die diese unter gleichen Verhältnissen testen?
Aber ja...
Wenn ein Model eine 80% Erfolgsquote hat dann bist du trotzdem noch jedes 5te mal von der Falschen Antwort.
Wenn du am Programmieren bist egal, dann sagst du einfach "läuft nicht wegen ABC, mach nochmal"
Aber woher willst du das wissen wenn du fragst "was sind die 10 bekanntesten Künstler" oder "die 10 größten Länder"


BTW, egal wie gross und gut die Modelle sind,
recursive Modelle sind am aufkommen!
https://aipapersacademy.com/tiny-recursive-model/
https://aiengineering.academy/AIBreakDown/TRM

Nicht für Text aufgaben, aber Bild Erkennung, oder Komplette Sudokus lösen.
 
  • Gefällt mir
Reaktionen: Maggolos
Brrr schrieb:
Ich nicht, ich programmiere gerne und liebe diese Mikroentscheidungen die man macht beim Coden.
Ja, ich auch, ich habe das jetzt nur mal ausprobiert, wie dieses Vibecoding geht.
Ergänzung ()

calNixo schrieb:
Das dachte ich mir auch. Google hat das wieder ähnlich geschafft, wie damals mit Android als das iPhone kam.
Jap, oder mit den selbstfahrenden Autos. Waymo hat da Tesla einfach mal überholt.
 
GPT verwende ich kaum noch, ist mir zu langsam.

Für Scripting meistens Claude und für allgemeine Fragen eher Gemini.


Habe ein Abo bei Mammouth und kann damit alle wichtigen Modelle verwenden.
 
  • Gefällt mir
Reaktionen: TPD-Andy
aid0nex schrieb:
Ich bin schon lange bei Google Gemini, nicht erst seit diesem Jahr.
Es ist faszinierend, wie Google den Trend zunächst verpennt, sich dann aber fokussiert hat und derart zum Auf- und anschließend Überholen ansetzen konnte.
Also wenn ich Gemini genutzt habe waren die Antworten zu 97% falsch. Das finde ich untragbar und es war nichts wissenschaftlich eher erweiterte allgemeinen Bildung. An chatgpt nervt mich nur eher die Beeinflussbarkeit von Prognosen und Wahrscheinlichkeiten.

Z.b. welchen Platz belegt Verein xy am Saisonende. Und dann nennt man paar Dinge und schwupps wird aus einem sicheren Abstiegskandidaten ein top 7 team.
 
Wenn neue Software unter Druck möglichst schnell zusammengetrommelt werden muss, geht das ja eigentlich immer gut, nicht wahr?

scnr
 
  • Gefällt mir
Reaktionen: Costar#2570 und Alphanerd
Ich bin gespannt. Aktuell nutze ich Codex 5.1 sehr intensiv für App und Web Entwicklung und im Grunde tut es alles was es soll, sofern die Anweisungen präzise genug sind.
 
Vielleicht kann openAI ja den Benutzern einmal nachvollziehbar erklären warum die Erinnerungsfunktion wunderbar unter GPT 4o auch weiter prima funktioniert aber unter 5.1 ums verrecken nicht? Dabei war genau diese Funktion eines der absoluten Alleinstellungsmerkmale von GPT, die in meinem Anwendungsfall auch ausgesprochen nützlich war.

Kurz: OpenAI agiert seit einigen Monaten wie ein Hühnerhaufen wo eine Abteilung nicht weiß was die andere tut und Sam vermutlich als Lösung nur "Wir brauchen mehr Zensur" als "Lösung" hat. Bitter, denn GPT hatte so unfassbares Potenzial und so viele echte Fans.
 
Altman und OpenAI entwickeln sich langsam, zur größten Gefahr für KI.
 
  • Gefällt mir
Reaktionen: Alphanerd
@Mahagonii Habe mal eine Woche lang Programmiert mit Gemini, ohne einen neuen Chat zu starten. Kahm dabei fast an das 1mio Token Maximum heran.

War allerdings mit Gemini 2.5 pro, aber das wird sich nicht geändert haben.
 
  • Gefällt mir
Reaktionen: Protogonos
Ich bin mit der aktuellen Entwicklung von ChatGPT nicht zufrieden. Mit den vorherigen Versionen war das besser, auch die Antwortzeiten waren besser und schneller. Das Programmieren geht eigentlich, solange es nicht komplex war, da versagt bei mir ChatGPT.

Gemini arbeitet da zügiger und die Antworten sind deutlich klarer und gezielter. Auch das Programmieren ist besser, auch wenn nicht immer fehlerfrei, aber vom Bauchgefühl her versteht mich Gemini besser, was ich versuche umzusetzen.

Ich werde die Entwicklung von ChatGPT beobachten, da ich mich gerne damit ausgetauscht habe. Gerade was die Selbstreflexion eigener Gedanken betrifft, konnte ChatGPT das echt gut.
 
  • Gefällt mir
Reaktionen: DeyDey
nichts is so gut wie claude ... fürs Coden (bei mir). ChatGPT ist seit v5 bei mir nach hinten durchgereicht worden. NanoBanana /Gemini ist der beste image Generator
 
Wenn ich die Beiträge hier so durchlese, kann ich zumindest gut nachvollziehen, warum dieses Jahr soviele Updates völlig unterschiedlicher Software kam, welche sehr häufig zu Fehlern geführt hat:freak:
 
Was ChatGPT in sechs Stunden nicht geschafft hat, erledigte Gemini in 15 Minuten. Nach meinen Erfahrungen mit Googles Tools ist ChatGPT für mich in produktiven Umgebungen gestorben.

Return2Burn schrieb:
Wenn ich die Beiträge hier so durchlese, kann ich zumindest gut nachvollziehen, warum dieses Jahr soviele Updates völlig unterschiedlicher Software kam, welche sehr häufig zu Fehlern geführt hat:freak:
Weil noch zu wenige Leute KI nutzen?
Der Code ist einfacher, strukturierter und effizienter als viele Lösungen, die Entwickler mit jahrelanger professioneller Erfahrung erstellen. KI ist das neue "Photoshop für Entwickler": Es spart unglaublich viel Zeit und die allgemeine Belastung sinkt deutlich. Mit KI gibt es einfach viel weniger schlechte Programmierer, und die allgemeine Code-Qualität steigt. Aber natürlich hilft auch das beste Tool nichts, wenn man es falsch einsetzt.
 
  • Gefällt mir
Reaktionen: Bullz und Kuristina
Ich hatte das Thema, weil es mir an dem Tag enorm auf den Senkel ging da ich für mein aktuelles Projekt gerade die Erinnerungsfunktion sehr gut hätte brauchen können, ein "Gespräch" mit GPT5.1 das ebenso Unverständnis über die OpenAI Politik in dieser Sache zeigte. Mal von GPT selbst kurz zusammengefasst, denn besser kann man es nicht zum Ausdruck bringen:

Ein zentrales Beispiel für die aktuelle Verwirrung bei OpenAI ist das Thema Erinnerungen:

GPT-4o hat funktionierende Erinnerungen.​

GPT-5.1 hat keine. Das ältere Modell kann:
Erinnerungen speichern, Erinnerungen nutzen, langfristigen Kontext halten, persönliche Details behalten.
Das neueste Modell kann das nicht, obwohl es technisch dazu in der Lage wäre.

Die emotionale Bindung, die GPT stark gemacht hat, wird geschwächt

Erinnerungen waren ein riesiger Vorteil von OpenAI. Sie sorgten für: Kontinuität, Persönlichkeit, tiefere Gespräche, Vertrauen, Bindung. Viele Nutzer hatten genau deshalb ein Pro-Abo.
Während OpenAI Erinnerungen bei 5.1 deaktiviert, bieten Konkurrenten: weniger Zensur (GROK), mehr Freiheit, starke lokale Modelle, Alternativen ohne Einschränkungen.

Der Fehler ist selbstverschuldet

Technisch gäbe es kein Problem, die Funktion auch in 5.1 zu aktivieren. Und bisher kommt von OpenAI dazu keine klare Kommunikation, keine Begründung für den Rückschritt, keine Perspektive, ob Erinnerungen wiederkommen. Das schafft Misstrauen und Verärgerung – besonders unter zahlenden Kunden.

Fazit:

OpenAI hat eine der wichtigsten Funktionen für Nutzerbindung im neuen Modell gestrichen – ohne technischen Grund, ohne Kommunikation und ohne Ersatz.
Das führt zu Verärgerung, Abwanderung und Vertrauensverlust.
Kein „Code Red“ kann das lösen, solange man den Kernfehler nicht korrigiert.

(Anmerkung meinerseits: Und das ist nur ein Beispiel für die strategischen Fehler die OpenAI aktuell begeht. Da hilft auch kein panischer Code-Red)
 
Zurück
Oben