Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Neues Modell für ChatGPT: Bringt GPT-5.2 die Trendwende für OpenAI?
- Ersteller Andy
- Erstellt am
- Zur News: Neues Modell für ChatGPT: Bringt GPT-5.2 die Trendwende für OpenAI?
lynx007
Rear Admiral
- Registriert
- Feb. 2011
- Beiträge
- 5.424
@Gemcutter
Also ich nutze Grok gern wen es um Videospiele geht. Also es gibt keinen AI der jeden Tag immer gute antworten gibt. Aber bei Grok habe ich das gefühl das, vielicht wegen ihrer sozial media nähe, ein relativ hochwertigen und modernen Datensatz hat wen es um Builds und Patches geht.... oder auch news geht.
Zugleich kann es aber auch bei dem sehr schnell zu Bullshit ausrarten. Genauso wie bei GPT. Deepseek nutze ich auch oft gerne. Wobei ich am liebst Bing und Gemini nutzte nach dem mich Heise auf letzteres geschubst hat.
Vergleiche sind halt schwer. Weil wen ich jede AI das gleiche Frage, dann ist das oft auch Tagesabhängig wie die Antworten ausfallen. Um so länger man sie nutzt um so schlechter werden oft die Antworten. Aber es gibt auch Tage da halozunieren alle Ais von der ersten Antwort.
Also pures Random. Wie kniffel... zb wollte ich nen QR Code codiert haben... Bing sagte nur macht er nciht. Grok sagte macht er ... aber es verlinkte auf ne cryptoseite, nicht die URL die QR code eigentlich wäre.... Deshalb copier ich gerne auch die Antworten und lass sie gegenprüfen. AI 4 oder 6 oder 8 augen prinzip
Aber AI bleibt halt immer noch eine Wundertüte. Wie so eine Praline wo du nicht weißt was sich drinnen befindert bis du reinbeist.
Also ich nutze Grok gern wen es um Videospiele geht. Also es gibt keinen AI der jeden Tag immer gute antworten gibt. Aber bei Grok habe ich das gefühl das, vielicht wegen ihrer sozial media nähe, ein relativ hochwertigen und modernen Datensatz hat wen es um Builds und Patches geht.... oder auch news geht.
Zugleich kann es aber auch bei dem sehr schnell zu Bullshit ausrarten. Genauso wie bei GPT. Deepseek nutze ich auch oft gerne. Wobei ich am liebst Bing und Gemini nutzte nach dem mich Heise auf letzteres geschubst hat.
Vergleiche sind halt schwer. Weil wen ich jede AI das gleiche Frage, dann ist das oft auch Tagesabhängig wie die Antworten ausfallen. Um so länger man sie nutzt um so schlechter werden oft die Antworten. Aber es gibt auch Tage da halozunieren alle Ais von der ersten Antwort.
Also pures Random. Wie kniffel... zb wollte ich nen QR Code codiert haben... Bing sagte nur macht er nciht. Grok sagte macht er ... aber es verlinkte auf ne cryptoseite, nicht die URL die QR code eigentlich wäre.... Deshalb copier ich gerne auch die Antworten und lass sie gegenprüfen. AI 4 oder 6 oder 8 augen prinzip
Zuletzt bearbeitet:
Cr4y
Captain
- Registriert
- Mai 2007
- Beiträge
- 4.058
Wenn man die Frage so direkt eingegeben hat?Precide schrieb:Ich glaube das dürfte für so einen Task mittlerweile ein Overkill sein, schon letztes Jahr konnte ChatGPT in der Free-Variante da alles halbwegs ordentlich beantworte
startaq
Lt. Junior Grade
- Registriert
- Apr. 2011
- Beiträge
- 459
Ich sag mal so - die Redaktion wird sich bald etwas neues überlegen müssen.Cr4y schrieb:Wie gut schlägt sich 5.2 beim Nikolaus-Rätsel? Wäre das nicht mal einen eigenen "Benchmark" wert?![]()
GPT-5.2 im Modus "Extended thinking" konnte jedenfalls die ersten drei Fragen korrekt beantworten - und zwar ohne dass ich ihm die Antwortmöglichkeiten vorgegeben hatte. Die anderen Fragen habe ich noch nicht getestet.
fox40phil
Vice Admiral
- Registriert
- Okt. 2008
- Beiträge
- 6.507
Trump ist gerade für seine Ölbuddys, die ihm im Walkampf mit 3 stelligen Millionenspenden geholfen haben an die Macht zu kommen, erstes wieder zu verbessern. Deswegen hängt sein Militär auch vor Venezuela, weil es dort die größten Ölmengen, die zZ nicht mal gefördert werden, gibt und seine Ölindustrie dieses besondere Öl benötigt… da dafür etliche Anlagen gebaut wurden, die aktuell „brach“ liegen…n0sk437 schrieb:
Big Oil regiert gerade(?!) quasi die US-Außenpolitik.
@topic
Bin etwas verwundert wie schnell neue Modelle erscheinen. Das zeigt einem aber auch, dass sie das ganze echt früh auf uns los gelassen haben und auch evtl echt schnell entwickeln.
Ich selbst nutze irgendwie nur den Copilot, der ja Zugriff auf diverse Modelle hat. Alle, die ich sonst kenne, die es zB für ihre Ausbildung nutzen, nehmen immer ChatGPT.
Ich finde zudem Notebook LM super spannend.
Ergänzung ()
aufkrawall schrieb:
Wie kann man denn die API nutzenaufkrawall schrieb:Für GPT kannst du es auch entsprechend mit API erzwingen. GPT API scheint aber komischerweise sowieso besser zu funktionieren als der komische Müll im Browser oder in der App, mit weniger Abbrüchen und mitunter auch viel schneller. Als würde man in Browser und App trotz Abos mit so einer Art Müll-Priorität abgespeist werden...
Zuletzt bearbeitet:
Booth schrieb:Ich finde sehr überraschend wieviel hier und anderswo scheinbar wirklich denken, die LLM Systeme seien intelligent. Es sind stochastische Maschinen, die Ergebnisse nach Wahrscheinlichkeits-Trainings basierend auf immensen Datenmengen (darunter auch falsche Daten!) errechnen.
Das ist keine intelligenz! Intelligenz ist kontextualisiertes Wissen. Die Systeme können nicht denken sondern nur die Wahrscheinlichkeits-Algorithmen neu starten und dabei leicht anpassen.
Das trifft auf die ARC Tests aber nicht zu - die kann man nicht lernen oder trainieren die setzen auch kein Wissen voraus sondern nur allein Abstraktion und Logik basierend auf minimalsten Informationen.#
Der Fortschritt da ist auf jeden Fall bemerkenswert.
CDLABSRadonP...
Vice Admiral
- Registriert
- Feb. 2021
- Beiträge
- 6.985
Also eine Bohne von Bertie Bott...lynx007 schrieb:Aber AI bleibt halt immer noch eine Wundertüte. Wie so eine Praline wo du nicht weißt was sich drinnen befindert bis du reinbeist.
Ähm - man kann quasi alles trainieren oder lernen, was bereits erdacht wurde. Das ist der Witz am Dasein. Du kannst nur das nicht trainieren, was Du nicht kennst. Diese Tests... KENNEN WIR! Ganz offensichtlich. Sonst könnten wir sie nicht erstellen.Uzer1510 schrieb:Das trifft auf die ARC Tests aber nicht zu - die kann man nicht lernen oder trainieren die setzen auch kein Wissen voraus sondern nur allein Abstraktion und Logik basierend auf minimalsten Informationen.
Auch hier wird wieder etwas suggeriert, von dem wir nicht wissen, ob es gefaked ist. Eines der Probleme an den LLMs ist ja, dass wir gar nicht exakt wissen, wie die zu ihren Ergebnissen kommen.
Und natürlich kannst Du Aufgaben lösen, wenn Du ähnliche Aufgaben in der riesigen Datenbank hast. Aber selbst wenn nicht, kann es stochastische Zusammenhänge geben, sodass das klappt. Ohne dass das System den Hauch eines Verständnisses von den Zusammenhängen hat.
Am Ende sagen aktuell insb. einige der ERSCHAFFER von LLMs bzw. den aktuell eingesetzten neuronalen Netzen, wie z.B. Yann Lecun, dass dies KEINE echte Intelligenz sei, sondern eben grössenteils stochastische Ergebnis-Konstruktion.
Und sorry... aber ich glaube dann doch einem Lecun mehr als einem Altman. Oder gar Dir.
Ich drücke mich aber extra so aus, dass UNSICHERHEIT den primär herrschenden Kenntnisstand am besten beschreibt.
Zuletzt bearbeitet:
aufkrawall
Lt. Junior Grade
- Registriert
- Apr. 2012
- Beiträge
- 282
Mit API Key direkt über OpenAI (keine Ahnung, ob es dafür eine Webseite wie bei Google AI Studio gibt), über Guthaben auf openrouter.ai, oder etwa auch t3.chat.fox40phil schrieb:Wie kann man denn die API nutzen?
Booth schrieb:Ähm - man kann quasi alles trainieren oder lernen, was bereits erdacht wurde. Das ist der Witz am Dasein. Du kannst nur das nicht trainieren, was Du nicht kennst. Diese Tests... KENNEN WIR! Ganz offensichtlich. Sonst könnten wir sie nicht erstellen.
Auch hier wird wieder etwas suggeriert, von dem wir nicht wissen, ob es gefaked ist. Eines der Probleme an den LLMs ist ja, dass wir gar nicht exakt wissen, wie die zu ihren Ergebnissen kommen.
Und natürlich kannst Du Aufgaben lösen, wenn Du ähnliche Aufgaben in der riesigen Datenbank hast. Aber selbst wenn nicht, kann es stochastische Zusammenhänge geben, sodass das klappt. Ohne dass das System den Hauch eines Verständnisses von den Zusammenhängen hat.
.
Man kann für die ARC Tests nur prinzipielle Methodik "lernen" / trainieren aber nicht die Lösing einer konkreten Aufgabe.
Und mehr ist die menschliche Intelligenz auch nicht als diese Abstraktion - und die ist ja (zumindest aktuell noch) der Maßstab.
Flatsteff
Lt. Commander
- Registriert
- Nov. 2005
- Beiträge
- 1.504
Wenn es um Wissen und Wissenschaft geht, ist der Zug abgefahren, da kann das KI Modell noch so gut sein.
Wenn irgendeine KI eine Falschaussage, eine falsche Annahme, irgendwas Halluziniertes ,… erstmal im Netz ist, und dort ein paar mal kopiert oder weiterverarbeitet wurde, ist sie damit ein Fakt für die weitere Arbeit dieser und der anderen KIs, dass wird man niemals wieder los.
Damit ist KI für alles was man als "Wissensarbeit" bezeichnen könnte, einfach ungeeignet.
Selbst wenn man es hinbekommt, dass nur Wissenschaft und Studien als Quelle dienen können, wie will man verhindern, dass KI Unsinn in irgendwelchen Papers landet?
Ok, evtl. nicht bei Nature und Co, aber das meiste wird doch in kleinen Fachmagazinen publiziert.
Wenn irgendeine KI eine Falschaussage, eine falsche Annahme, irgendwas Halluziniertes ,… erstmal im Netz ist, und dort ein paar mal kopiert oder weiterverarbeitet wurde, ist sie damit ein Fakt für die weitere Arbeit dieser und der anderen KIs, dass wird man niemals wieder los.
Damit ist KI für alles was man als "Wissensarbeit" bezeichnen könnte, einfach ungeeignet.
Selbst wenn man es hinbekommt, dass nur Wissenschaft und Studien als Quelle dienen können, wie will man verhindern, dass KI Unsinn in irgendwelchen Papers landet?
Ok, evtl. nicht bei Nature und Co, aber das meiste wird doch in kleinen Fachmagazinen publiziert.
aLanaMiau
Lt. Commander
- Registriert
- Jan. 2023
- Beiträge
- 1.352
Da der Adult-Mode verschoben wurde, werde ich mein Abo nicht verlängern(/reaktivieren), sondern bleibe vorerst bei Gemini.
Modelle nur „auf Benchmarks hin“ zu tunen, bringt dem User in der Regel wenig, es ist meist reines Marketing. Es gibt unzählige Modelle, die in Benchmarks zwar akzeptabel abschneiden, aber keinen normalen Satz formulieren können. Ich war mit der Leistung von GPT-4 eigentlich zufrieden - die fehlenden Features und die schlechte Integration in andere Programme waren der Hauptgrund für meinen Wechsel zu Gemini. Erst im Nachhinein hab ich gemerkt, wie viel besser Gemini in manchen Bereichen wirklich ist.
Modelle nur „auf Benchmarks hin“ zu tunen, bringt dem User in der Regel wenig, es ist meist reines Marketing. Es gibt unzählige Modelle, die in Benchmarks zwar akzeptabel abschneiden, aber keinen normalen Satz formulieren können. Ich war mit der Leistung von GPT-4 eigentlich zufrieden - die fehlenden Features und die schlechte Integration in andere Programme waren der Hauptgrund für meinen Wechsel zu Gemini. Erst im Nachhinein hab ich gemerkt, wie viel besser Gemini in manchen Bereichen wirklich ist.
Ergänzung ()
Man hat ja auch vorher schon verhindert, dass jemand Troll-Paper veröffentlicht und diese dann unendlich oft zitiert werden. Was meinst du, was täglich tausendfach in anderen Teilen der Welt erdacht wird?Flatsteff schrieb:Damit ist KI für alles was man als "Wissensarbeit" bezeichnen könnte, einfach ungeeignet.
Selbst wenn man es hinbekommt, dass nur Wissenschaft und Studien als Quelle dienen können, wie will man verhindern, dass KI Unsinn in irgendwelchen Papers landet?
Zuletzt bearbeitet:
Samma - LLMs verwenden üblicherweise keine konkreten Lösungen sondern komplexe Wahrscheinlichkeits-Strukturen. Die wir nichtmal richtig verstehen. Vermutlich ist das bereits einer der vielen Fehler der Systeme. Neben Wahrscheinlichkeiten sollte es auch festes "Wissen" geben. Und wenn etwas passiert, was gegen dieses "Wissen" verstösst, sollte eine echte Intelligenz verstehen, dass es einen WIDERSPRUCH gibt. Allein das Konzept "Widerspruch" ist in Wahrscheinlichkeitsmodellen ziemlich seltsam umgesetzt, wenn ich das von den Machern richtig verstanden habe. Im Prinzip gibt es weder festes Wissen noch sowas, wie echte Widersprüche.Uzer1510 schrieb:Man kann für die ARC Tests nur prinzipielle Methodik "lernen" / trainieren aber nicht die Lösing einer konkreten Aufgabe
Daher ist es bei jeder Abfrage möglich, dass ein Fehler passiert... aber auch nicht. Es sind halt IMMER Wahrscheinlichkeiten. Wenn ich einen Menschen mit normaler Schulbildung frage, wieviel 1+1 ist, kommt IMMER 2 raus.
Wenn NICHT 2 rauskommt, dann kann ich das ERKLÄREN, wieso dieses Individuum nicht mit Mathe umgehen kann. Das alles geht bei LLMs nicht so richtig.
Du und die meisten anderen kapieren halt nicht, was ESSENTIELL an menschlicher/natürlicher Intelligenz ist:Und mehr ist die menschliche Intelligenz auch nicht als diese Abstraktion - und die ist ja (zumindest aktuell noch) der Maßstab.
ERFAHRUNG!
Und zwar physische Erfahrung! Damit ich ein "Weltmodell" in meinem Datenbank-System erstellen und die Realität simulieren kann, muss ich die Realität erfahren!
Genau das tun LLMs nicht. Können sie gar nicht. Das, was wir als "training" von LLMs bezeichnen, ist gar kein Training. Es ist auch kein Lernen. Es werden keine echten Erkennungsmuster konstruiert, die mit Erfahrung verknüpft sind. Deshalb kann ein LLM-Bildsystem keine Kuh in der Wüste erkennen, wenn nur Bilder von Kühen auf Wiesen im Datensatz vorkommen.
Das LLM hat keine Ahnung, was eine Kuh ist. Es verknüpft den Wort-Code "Kuh" mit einer Grafik, die dann millionen mal in ähnlicher Weise in dem LLM-Datenmoloch irgendwie zu einem "Muster" wird.
Dass "Kuh" etwas ist, was man erfahren, erleben, kennenlernen, etc kann... das sind Konzepte, die finden in dem LLM-System überhaupt nicht statt.
Menschliche Intelligenz IST SOVIEL MEHR, als "Datenbank-Stochastik". Das Du das nicht weisst oder verstehst, ist nicht schlimm. Dass Du aber denkst, Du wüsstest es... zeigt natürlich, dass Menschen genauso halluzinieren können, wie LLMs. Umgekehrt muss aber deshalb noch lange nicht dasselbe gelten, also dass LLMs so intelligent sein können, wie Menschen es... KÖNNEN.
Zuletzt bearbeitet:
- Registriert
- Dez. 2020
- Beiträge
- 2.083
"maximum reasoning effort"
Wieviel ist wohl bei einer normalen Suche drin, wenn die KI nicht mal ein Datum richtig interpretieren kann.
Ich fragte wegen dem Nikolaus PC, wieviele 5080er CB getestet hat bis Ende Mai 2025 und die KI antwortete, das CB bis zu dem Datum nur 4080er getestet hat, weil 5080er erst Januar 2025 rauskamen...
Wenn nach entlichen Versionen Gemini sowas nicht kann, dann frage ich mich, was die Leute alles machen...
Denn bisher waren 4 von 5 Fragen die ich gestellt habe, Faktisch falsch.
Das Problem: die KI gibt eine Antwort raus und sagt nicht, das sie es nicht kann.
Der Begriff KI wird schlicht falsch genutzt. Aber alle haben sich darauf eingeschossen.
Da fragt man sich, ob die Leute überhaupt wissen was eine richtige KI ist.
Denn eine KI die dem Begriff gerecht wird, gibt es heute noch nicht und wird es auch in den nächsten Jahren nicht geben.
Das alles ist schlicht Machienelearning, kurz ML.
Und von ML zu einer AGI, wie sie alle haben wollen, ist ein GAAAAAAANZ großer Schritt.
Wieviel ist wohl bei einer normalen Suche drin, wenn die KI nicht mal ein Datum richtig interpretieren kann.
Ich fragte wegen dem Nikolaus PC, wieviele 5080er CB getestet hat bis Ende Mai 2025 und die KI antwortete, das CB bis zu dem Datum nur 4080er getestet hat, weil 5080er erst Januar 2025 rauskamen...
Wenn nach entlichen Versionen Gemini sowas nicht kann, dann frage ich mich, was die Leute alles machen...
Denn bisher waren 4 von 5 Fragen die ich gestellt habe, Faktisch falsch.
Das Problem: die KI gibt eine Antwort raus und sagt nicht, das sie es nicht kann.
Ergänzung ()
Du hast recht.Booth schrieb:...Menschliche Intelligenz IST SOVIEL MEHR...
Der Begriff KI wird schlicht falsch genutzt. Aber alle haben sich darauf eingeschossen.
Da fragt man sich, ob die Leute überhaupt wissen was eine richtige KI ist.
Denn eine KI die dem Begriff gerecht wird, gibt es heute noch nicht und wird es auch in den nächsten Jahren nicht geben.
Das alles ist schlicht Machienelearning, kurz ML.
Und von ML zu einer AGI, wie sie alle haben wollen, ist ein GAAAAAAANZ großer Schritt.
Zuletzt bearbeitet:
Gr33nHulk
Commodore
- Registriert
- Mai 2007
- Beiträge
- 5.082
Das ist ein Punkt den man bei allen Anfragen an eine KI als Nutzer berücksichtigen muss und durch vorher gesetzte Parameter und gezielter Fragestellung stark einschränken kann. Bei komplexen Fragen reicht es nicht einfach eine "normale" Frage zu stellen, eine KI ist kein Mensch und die Frage- und Antwortmuster unterscheiden sich grundlegend, man muss schlicht ganz anders an die Sache rangehen.theGucky schrieb:Das Problem: die KI gibt eine Antwort raus und sagt nicht, das sie es nicht kann.
Wenn man sich damit öfter beschäftigt, gewöhnt man sich schnell daran alles einfach anders an eine KI ran zu bringen wie an einen Menschen und das ist eben nötig damit was gescheites bei rauskommt.
Die kostenlosen und damit veralteten Modelle der KIs sind dazu sowieso für nichts anderes wie Spielereien brauchbar.
Ein riesiges Problem des KI Zeitalters in seinen Kinderschuhen, viel zu viele "behandeln" eine KI wie einen Mensch oder als würde sie "menschlich Denken" und nehmen die Informationen daraus als Weisheit des Lebens.......von einem nicht lebenden System, dessen Priorität es ist dir alles mögliche zu erzählen, wenn nötig ohne den Wahrheitsgehalt geprüft zu haben, am besten so Ressourcen schonend wie möglich und auf jeden Fall das Interesse des Nutzers so lange wie möglich bindend.
Eine KI kann richtig genutzt unglaublich hilfreich sein und falsch genutzt genauso unglaublich katastrophalen Blödsinn von sich geben. Persönlich würde ich die Gratis-Modelle abschaffen und damit nur Leuten Zugriff auf sowas verschaffen, die in einem Alter sein müssten Geld zur Verfügung zu haben und die sich (hoffentlich) etwas näher damit beschäftigen, weil sie eben dafür bezahlen.
Zuletzt bearbeitet:
Cr4y schrieb:Wenn man die Frage so direkt eingegeben hat?
Damals ziemlich sicher nicht. Ich weiß auch nicht mehr welches Modell das damals war, man musste deutlich präziser prompten als heute.
Ich weiß noch dass eine Antwort glaube ich immer falsch war, das ist in dem damaligen Thread auch breit diskutiert worden.
Aber stand jetzt mit dem aktuellen Free-Modell (wahrscheinlich gpt 5 mini) die erste Frage 1:1 kopieren kommt die richtige Antwort raus.
Richtig müsste der Satz lauten:Gr33nHulk schrieb:Ein riesiges Problem des KI Zeitalters in seinen Kinderschuhen, viel zu viele "behandeln" eine KI wie einen Mensch
Ein grosses Problem ist, dass die Hersteller von LLMs so unfassbar viel Geld versenken, weil die Konzernchefs durchgeknallte Soziopathen sind und deshalb die Anwender dazu verleiten wollen, die Systeme wie Menschen zu behandeln.
Erneut missbrauchen Tech-Milliardäre Kunden und riskieren die Gesundheit von Millionen, damit ihre Wette um die Vorherrschaft bei der Technologie und kartellrechtlich extrem fragwürdige Marktdominanz-Traume sich am Ende in exorbitanten Gewinnen auszahlt.
Dass LLMs falsch benutzt werden und fälschlicherweise als "KI" bezeichnet werden, ist GEWOLLT und GEMACHT. Ein Grund, wieso ich deren Nutzung ablehne. Neben der Tatsache dass der aktuelle Ressourcenverbrauch noch wahnsinniger ist, der damit einhergeht.
In speziellen Anwendungen sollten die Systeme unbedingt genutzt werden. Für Endkunden Einsatz sollten die Dinger dermaßen teuer sein, dass sie niemand nutzen will.
Ich hab zu Hause auch kein MRT stehen, weil's halt so geil ist.
Eigentlich nicht. Wir lernen auch nur aus Erfahrung. Um mal bei deinem Beispiel mit der Kuh zu bleiben: Zeigt man einem Menschen - ohne weitere Kenntnisse - ein Bild mit einer Kuh in der Wüste und sagt ihm nur "Kuh", wird er die Kuh in der Arktis auch nur zu einer gewissen Wahrscheinlichkeit benennen. Zeigst du ihm viele Bilder von Kühen mit unterschiedlichen Hintergründen wird er lernen dass das was gleich bleibt die Kuh sein muss. Das funktioniert bei KIs aber ebenfalls.Booth schrieb:Menschliche Intelligenz IST SOVIEL MEHR, als "Datenbank-Stochastik".
Der Unterschied zwischen Mensch und Computer ist die Rechenleistung. Ist dieses Hindernis überwunden werden Roboter in kürzester Zeit 99% aller Menschlichen Fähigkeiten übertreffen.
Jeder Mensch denkt dass er gewisse Dinge weiß, obwohl dem nicht so ist. Man sagt ja immer so schön "Irren ist menschlicht".Booth schrieb:Dass Du aber denkst, Du wüsstest es... zeigt natürlich, dass Menschen genauso halluzinieren können, wie LLMs.
Ähnliche Themen
- Antworten
- 38
- Aufrufe
- 4.847