News Neues Modell für ChatGPT: Bringt GPT-5.2 die Trendwende für OpenAI?

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
8.217
  • Gefällt mir
Reaktionen: #Stefan#, BrollyLSSJ, TPD-Andy und eine weitere Person
Ein sehr wichtiger Punkt fehlt hier, was dann schon ein Gschmäckle hat:

Für GPT5.2 gibt es die "Thinking Stufen" Low, Medium, High und xHigh. Die Benchmarks sind mit xHigh erstellt.
Also normaler ChatGPT Nutzer mit Abo hat man aber nur Low (Standard) und Medium (Extended Thinking) zur Verfügung.

Mit dem sehr teuren GPT Pro Abo dann noch zusätzlich High.

Die Intelligenz die man mit dem Abo bekommt entspricht also nicht der von den Benchmarks. Mit Gemini 3.0 Pro kriegt dagegen jeder die beworbene Intelligenz.
 
  • Gefällt mir
Reaktionen: Galde, Alpenbruder, Eusterw und 86 andere
Andy schrieb:
Dieser erfasst, wie sich KI-Modelle bei Aufgaben schlagen, die abstraktes Denken erfordern.
Wie gut schlägt sich 5.2 beim Nikolaus-Rätsel? Wäre das nicht mal einen eigenen "Benchmark" wert? :D
 
  • Gefällt mir
Reaktionen: H6-Mobs, Unioner86, gartenriese und 10 andere
Niemals, die brauchen noch viel mehr RAM...:freak:
 
  • Gefällt mir
Reaktionen: JoeDante, Delirus, Floppes und eine weitere Person
Blaexe schrieb:
Ein sehr wichtiger Punkt fehlt hier, was dann schon ein Gschmäckle hat:

Für GPT5.2 gibt es die "Thinking Stufen" Low, Medium, High und xHigh. Die Benchmarks sind mit xHigh erstellt.
Also normaler ChatGPT Nutzer mit Abo hat man aber nur Low (Standard) und Medium (Extended Thinking) zur Verfügung.
Überrascht mich nicht, 11$ pro Task ist absurd teuer - dafür muss wohl wirklich ein ganzes Cluster rechnen.

Und die vorher genannten 4.500$/Task zusammen mit der 390-fachen Verbesserung in meinen Augen reines, und damit wertloses, Marketing. Bei dem Preis kann man das Teil nur entweder als Alpha oder als Fehlschlag betrachten, nicht jedoch als sinnvolle Referenz.
 
  • Gefällt mir
Reaktionen: Delirus, jdiv, Lan_Party94 und 2 andere
GPT-5.2 Thinking kommt dort auf 70,9 Prozent, der Vorgänger GPT-5.1 Thinking nur auf 38,8 Prozent.
Okay aber für was bitte stehen denn nun diese Prozente? Was muss geschehen, um 100% zu erreichen? Warum Prozent und nicht Punkte oder von mir aus Gummibärchen?
 
  • Gefällt mir
Reaktionen: Ste-we, Stelmecke PS-C, Lan_Party94 und eine weitere Person

GPT-5.2 vorerst nur für kostenpflichtige Abo-Pakete​

GPT-5.2 lässt sich in ChatGPT über die Modi Instant, Thinking und Pro nutzen. Verfügbar ist es zunächst nur für die kostenpflichtigen Abonnements Plus, Pro, Business und Enterprise. Entwickler können das neue Modell über die API abrufen.

Jein.

GPT-5.2 ist seit gestern schon im Microsoft Copilot integriert und dort kostenlos nutzbar.

👉 Zusammengefasst: Du musst nicht warten – GPT‑5.2 ist schon integriert und aktiv in Copilot.
Quelle: Copilot.
 
  • Gefällt mir
Reaktionen: Unioner86, User38, NJay und 2 andere
Nun ja, ich bin zunehmend genervt von ChatGPT, trotz Abo. Die Antworttexte werden immer länger (hallozinieren), was sich jedoch nicht inhaltlich in relevanten Fakten niederschlägt, sondern schlicht in „Masse“. Dazu kommen Wiederholungen. Wenn ich anweise, keine Wiederholungen, kurze, prägnante und fachlich relevante Texte, kommt oft als Erstes die Floskel: "Hier eine kurze, fachlich fundierte Antwort“ gefolgt von einem extrem langen Text ohne viel Inhalt.

Gemini macht das ein wenig besser. Ich gebe mittlerweile bestimmte Fragestellungen einmal bei ChatGPT und dann bei Gemini ein. Letzteres ist häufiger kürzer, sachlicher und liefert gute Quellennachweise. Es würde mich auch nicht wundern, wenn Gemini langfristig ChatGPT den Rang abläuft, zumal Alphabet deutlich andere finanzielle Ressourcen besitzt.
 
  • Gefällt mir
Reaktionen: FrAGgi, Schmarall, Ste-we und 10 andere
1765550728699.png

(Quelle: https://artificialanalysis.ai/evaluations/gdpval-aa )

Wie passt das zu (z.B. 5.1 oder 5):

1765550770622.png

(5.2, 5.1, Opus 4.5, Gemini 3 Pro)


Vllt ist GDPval-AA (von Artificial Analysis?) anders?
Ergänzung ()

Blaexe schrieb:
Also normaler ChatGPT Nutzer mit Abo hat man aber nur Low (Standard)
Kriegen die nicht das "Instant"-Model? (hätte ich jetzt spontan gedacht)
 
Mal die einzig wichtige Frage:

Gibt es den Erotikmodus schon? 😁

P.S. dass ich nur für einen Freund frage, ist ja eh klar 😂
 
  • Gefällt mir
Reaktionen: ThirdLife, Zagrthos, JanJ und 6 andere
Gullveig schrieb:
Jein.

GPT-5.2 ist seit gestern schon im Microsoft Copilot integriert und dort kostenlos nutzbar.


Quelle: Copilot.
Welcher Copilot? Die heißen alle Copilot! :D
im Github Copilot ist es jedenfalls auch schon drin.

Ob nun 90 oder 92% Score; bei meinem selbstverschuldeten Problem mit der der Dependency Injection, welches mir beim Upgrade von Angular 19 auf Angular 20 gerade um die Ohren fliegt, konnte mir bisher kein Modell helfen. Die "verstehen" alle mein konkretes Problem nicht, obwohl sie in Github Copilot Zugriff auf den Code haben. Entsprechend kommen nur halbgare Lösungen raus.
Und da zeigt sich bei mir gerade das Problem: Ich habe die Funktionsweise der DI in Angular selbst nicht ganz verstanden. Entsprechend kann ich die Frage nicht richtig stellen. Also kommt deswegen wahrscheinlich auch keine passende Antwort. Letztlich muss ich mich jetzt in das Thema doch wieder selbst reinarbeiten um es dann grundlegend zu fixen.
 
  • Gefällt mir
Reaktionen: gartenriese
Blaexe schrieb:
Die Intelligenz die man mit dem Abo bekommt entspricht also nicht der von den Benchmarks. Mit Gemini 3.0 Pro kriegt dagegen jeder die beworbene Intelligenz.
Jein, auf gemini.google.com kann man auch nicht zwischen der Reasoning-Tiefe low und high umstellen. Das entscheidet er automatisch. Kostenlos geht es aber in Antigravity, und sonst halt mit API. Für GPT kannst du es auch entsprechend mit API erzwingen. GPT API scheint aber komischerweise sowieso besser zu funktionieren als der komische Müll im Browser oder in der App, mit weniger Abbrüchen und mitunter auch viel schneller. Als würde man in Browser und App trotz Abos mit so einer Art Müll-Priorität abgespeist werden...
 
  • Gefällt mir
Reaktionen: fox40phil
Wo bin ich hier schrieb:
Äpfel vs Birnen? Oder was soll uns dieses Bild sagen?
Was dieses Bild aussagen will, steht doch mit Zahlen untermauert im Bild, man muss das auch interpretieren
wollen :-D
 
Rollkragen schrieb:
Nun ja, ich bin zunehmend genervt von ChatGPT, trotz Abo. Die Antworttexte werden immer länger (hallozinieren), was sich jedoch nicht inhaltlich in relevanten Fakten niederschlägt, sondern schlicht in „Masse“.
probier doch mal anthropic modelle, die antworten dort sind eigentlich immer ziemlich gut auf den punkt gebracht. ich finde openai und google antworten sehr steril und künstlich... irgendwie geschmacklos.

auf https://openrouter.ai kann man übrigens alle modelle von allen anbietern als pay as you go nutzen (man bezahlt dann einfach den api preis, hat aber ein ganz normales chat interface; praktisch um verschiedene modelle auszuprobieren)
 
  • Gefällt mir
Reaktionen: fox40phil
@aufkrawall

Soweit ich weiß kriegt man über das Gemini Interface (App/Webseite) High, über AI Studio oder API kann man es wählen. Hast du eine Quelle dass Gemini auch Low nutzt? Habe zumindest auf die Schnelle nichts gefunden.
 
Dann wäre vor allem ein Test gegenüber Perplexity sinnvoll.
 
Cr4y schrieb:
Wie gut schlägt sich 5.2 beim Nikolaus-Rätsel? Wäre das nicht mal einen eigenen "Benchmark" wert? :D

Ich glaube das dürfte für so einen Task mittlerweile ein Overkill sein, schon letztes Jahr konnte ChatGPT in der Free-Variante da alles halbwegs ordentlich beantworten.
 
  • Gefällt mir
Reaktionen: TheInvisible
Blaexe schrieb:
@aufkrawall

Soweit ich weiß kriegt man über das Gemini Interface (App/Webseite) High, über AI Studio oder API kann man es wählen. Hast du eine Quelle dass Gemini auch Low nutzt? Habe zumindest auf die Schnelle nichts gefunden.
Ich wüde misstrauisch davon ausgehen, dass Google da nicht Geld verbrennen will und bei den ohnehin schon niedrigen Preisen und guten Quotas da einem nicht immer high zugesteht. Einige Antworten kommen auch quasi instant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaX2
Zurück
Oben