News Neues ChatGPT-Modell: GPT-5.3 soll flüssigere Gespräche und weni­ger Halluzinationen bieten

silent2k schrieb:
Wie behält man eigentlich den Überblick welche Plattform nun "die Beste" ist?
openrouter.ai - da kannst du in einen Interface alle verschiedenen Modelle durchprobieren.
 
  • Gefällt mir
Reaktionen: Maximum_1616
Ja wobei da der globale Kontext der jeweiligen Anbieter fehlt. Dennoch ein guter Test.
 
  • Gefällt mir
Reaktionen: Maximum_1616
Hab ein paar Hundert Stunden mit GPT und Gemini verbracht um komplexen Code zu generieren für eine Enterprise Level lokale LLM Suchmaschine: nach ca. 60prompts verlieren die öfters den Kontext und halluzinieren..........und die Suchmaschine hakt immer noch (vor allem beim RAG Server und bei der ingest)...GPT 5.3 wird da sicher auch keine grosse Verbesserung bringen....
 
  • Gefällt mir
Reaktionen: Maximum_1616
7H0M45 schrieb:
Glaub du hast den guten Heisenberg hier nicht so richtig verstanden. Heisenberg behauptet das nämlich gar nicht.
Und die Agenten sind auch keine Lösung. Die Agenten sind im Endeffekt die gleiche Technik nur spezialisierter. Das technische Grundproblem welches hinter der Halluzination liegt, geht also gar nicht weg.



Der Witz ist, das sind wir gar nicht. Wir sind dem schon sehr nahe. Zumindest je nach dem welche Definition man verwendet. Es gibt hier nämlich keine allgemein gültige Definition, OpenAi ist hier aber immer sehr kreativ wenn es um eine für sie wohlwollende Definitiv von AGI geht.
Doch ich kenn mich da (relativ ) gut aus. Aber ja, ich wäre nicht ITler, wen es bei mir zum Physiker gereicht hätte. ;)

Es geht um Warschinlichkeit und Unbestimmbarkeit. Aber auch, und das wird in dem Video klar, um Perspektiven.

Aber es war nur eine Analogie, oder meine ich Methaper?! Diese Level-1 AIs sind stochastische Gebilde. Damit stochasitischen Mengenräume. Unterschiediche Agenten, haben unterschiedlcihe Mengenräume. Und damit kann mit die Ausgabe beeinflussen.

Ein Agent der schöne Antworten gibt. Einer der Prüft ob sie Plausibel sind usw... Und natürlich löst man damit das Problem, indem man es entschärft, durch warscheinlichkeit. Ist bei unserem Gehirn ja auch ähnlich. Ein Teil ist für den emotionalen Teil, einer für den rationalen Teil, ein teil für die LEbenswichtigen sachen... schneidet man ein stück raus, hat es sehr negative auswirkung. Oder auch umgekehrt, beim Säbelzahntieger ist es nicht sinnvoll lange zuüberlegen was wohl das Sinnvollste ist?!?! Auch das ist nur eine "Analogie", die aber zeigt wie Spezialisten, die zusammenarbeiten, zu einem besseren ergebniss kommen.

Machen wir es bildlich. Kniffel. Jeder Agent, speziealisert auf sein Feld, ein Wüfeln... 6 Seiten, 1 steht für die Haluzination, besser für nen Bug, der die Ausgabe fehlerhaft macht. Jetzt werfen werfen wir die würfel aber nicht gleichzeitig, sonder in abhängkeit nacheinander, in hirachischer folge... jede 1 heist ich muss wieder von vorne anfangen. Die warscheinlichkeit das ich 5 mal hintereinander eine 1 werfe ist viel geringer als mit einem würfel.

Es ist auch nur ein veranfachtes Beispiel, was grob darstellt, wie AIs funktionieren..... Ein Agent ist für den Text verantworltich. Rechtschreibung. Stiel. Aber auch Plausibilität. Also in der Theorie!

Was OpenAI als AGI bezeichnet ist Bullshit! AGI, ist das was nach zusammgenschalteten Agenten kommt. Eine AGI kann selber lernen, selber probleme erkennen und Lösungen aufbauen. Das ist die wissenschaftliche Bedeutung von AGI. Das ist aber kein geschützter Begriff. Aber jede FIrma will ja da hin, ein echte AI, die man vor etwas hinsetzt und die sich selbst etwas beibringen kann. Aber davon sind wir glaub ich noch 3-4 Phasen entfernt.
https://en.wikipedia.org/wiki/Artificial_general_intelligence

Dannach kommt ASI, Superintelligenz ist per definition eine Intelligenz die jeden Menschen übersteigt. Und nach der Atombombe die zweite Technologie, mit der sich die Mensch auslöschen könnte.
https://de.wikipedia.org/wiki/Existenzielles_Risiko_durch_künstliche_Intelligenz

Und die Defintion ist wissenschafltich mehr oder weniger fest! Den Firmen ist das halt egal. Was nicht geschützt ist, wird halt gekapert. Weil Packung, aufs Schild kann ich alles schreiben, solange es nciht geschützt ist. Das heist aber umgekerht nicht, das es keine (wissenschaftliche) Defintion davon gibt.
Ergänzung ()

DeusExMachina schrieb:
Und was das immer mit den Agent soll
Agenten Systeme können bereits als gescheitert betrachtet werden da sie ebenfalls die Heilsversprechen nicht erfühlen und höchstwahrscheinlich architektonisch bedingt auch nie werden können.
Ok, höre das erste mal. Hast du dazu Quellen? Pls!

Ich glaube auch nicht das wir in 5-10 Jahren schon bei ner AGI sind. Aber ich bin auch immer überrascht wie groß die Fortschritte bei den LLMs werden. Immer wen ich denke, "das wars jetzt", kommt nen Update welches mit sehr viel Problemen aufräumt.
 
Zuletzt bearbeitet:
habichtfreak schrieb:
Ich weiß nicht ob es unter halluzinieren

Ja! Sind es! Alles wo die AI etwas erfindet, erträumt, weil die warscheinlichkeit hoch ist, das dich die Antwort zufrieden stellt!

Ich habe auch nen gute Beispiel.... zb ging in der rechten Buble mal eine Halozination von gemini auf Twitter Viral, wo Twitter-Bots, Twitter Trolle "flüssiges Deutsch" gespreadet haben. Und darüber haben sich nicht wenige belustig. Weil flüssiges Deutsch gibts nicht! Es ist ein klassischer False Friend, den AIs abgeleitet haben von "speaking fluid german ". Ich weiß nicht ob sie es gefixet haben, aber als ich Gemina fragte, sagte er, doch kann man so oder so sagen... und als Quelle den Duden... nur steht das so natürlich (zum Glück noch) nicht so im Duden. :daumen: :evillol:


Ich habe schon etwas geschwitzt, weil im Duden steht ja mitlerweile sehr viel muss man sagen, daher auch etwas geschwitz. Aber zum Glück, "spreche flüssig Deutsch" gab es da noch nicht! Wovor ich noch mehr angst habe, auch um auf deinen Computer zu kommen, wer bestimmt was richtig und falsch ist, wen alles nur noch AIs machen?! Die Dinger, die so viral, in der breite Einfluss nehmen, steuern dann welche Begriffe, Bedeutung, richtig sind?!? Ich will nicht in ner Welt leben wo jetzt "flüssiges Deutsch" richtig wird, weil genügend Fakebots das auf Wikipedia und Foren benutzt haben....
Also das ist ja auch schon auf Wikipedia schon sehr lange ein Thema, mit falschen Einträgen.... das war aber immer paar Clowns oder leicht zurückverfolgbare Firmen.

Und jetzt stell dir vor, AIs machen es für dich "billiger" weil alles andere teurer aussieht? IN wikrlichkeit zahlst du aber mehr als andere? Soll angeblich schon realität bei Shoping Apps in der USA sein. 2 Kunden, gleicher Markt, gleichwarenkorp, gleiche App, aber zahlen unterschiedliche Preise an der Kasse. :rolleyes:

Ich bin ungern ein Schwarzmahler. Aber ich komme halt auch aus einer Zeit, da konnte dir jeder noch jeden Mist als Vertrag unterjubeln. Mittels AI kann man das wieder, so das man es aber nicht mitbekommt.
Ergänzung ()

coxon schrieb:
Kann ich als Laie und Endanwender nicht. Ich habe mit ChatGPT keine guten Erfahrungen gemacht
ChatGPT hat extrem nachgelassen. Sehr schlimm finde ich ist BIngAI geworden, was ja nen Ableger, Branche ist...


coxon schrieb:
kam mir teils echt verarscht vor
die die Dinger können ganz schon trollen. Dabei ist das Ding nur nen Taschenrechner. Das muss man sich immer wieder im geiste sagen. "Du redet mit nem Textbot" das weiß nichts, das versteht nichts, und Tab zu und lieber google nutzen.


coxon schrieb:
bin bei Claude gelandet und wurde nicht enttäuscht, denn es hat mich zuverlässig dort hin gebracht wo ich hin wollte.
muss ich auch noch ausprobieren... ich nutz die Dinger viel zu oft, und viel zu lang... aber ich


coxon schrieb:
Das verstehe ich nicht so ganz. Wenn die KI mir nen Code schreibt/generiert (und ich coden kann), dann schaue ich doch wenigstens mal drüber, oder?
Du meinst Debuggen? Also genau das was unglaublich Zeitintensiv ist und "keiner" bock darauf hat? Merkst du den Fehler? Bzw siehst du die potenzielle Fehlerkaskade? ;)

Das schlimme ist, die Dinger funktieren manchmal gar nicht, aber öfters sehr gut. Du frägst etwas und bekommst eine Antwort, die aber auch oft direkt funktioniert. Wie nen Würfel halt. Zb habe ich meine erste W11 instalation zerschossen, mittels BingAI und Powershell.... nicht das das was ich wollte nicht funktioniert hat, aber war mir der folge Konsquenzen nicht ganz so klar. :evillol: :daumen:

Aber dafür gibts ja Backup und neuinstalltion.

Ich habe mir mal zb über Bing nen eigenen Autoclicker bot gebaut. Das hat etwas einen Tag gedauert, mehrer anläufe bis ich über ne Win api nen Phyton Script hatte welches aber aber hat funktioniert hat.

Wer soll das aber jetzt Debugen wen etwas nicht funktioniert?! Dafür bräuchte ich dann auch eine AI. Bzw, ich habe das ja bei den AutoClickerBot auch gemacht, mit ihm Gedbugt... und das gibt dir ja die Antwort, bald wird kaum noch einer richtig "Coden" können (müssen).

Aber mit Blackbox meinte ich was anderes, nämlich die AI selber. Nämlich wen die AI mist gemacht hat, warum hat sie das?! Lustigerweise passt das beispiel hier noch besser mit der Begründung. DIe AI löscht den Code, weil neuschreiben plötzlich schnell ist, als debuggen....! Das stimmt... Hätte ich umgekehrt die Scripte über phyton.wiki, powershell foren selber zusammen zimmern müssen... ich wäre wochen, monate drangesessen... und noch wichtig hätte aufgegben....

Worauf ich raus will. Durch AI, hast du nen Ding, das schreibt etwas zusammen, ohne direkt nachvollziehen zu können warum macht sie das genau so. Aber sie macht das auch so effzent und so gut, das das keine rolle spielt. Weil in kurzer Zeit jeder "Hello-World" plep code generieren kann, der halt funktioniert. Und dann hast du so unmangen an Code, den nur eine AI prüfen kann....

Auf der einen Seite geil. Auf der anderen Seite erschreckend, weil du damit Kontrolle verlierst. Aber verliere mich ins tausendste. Mit Blackbox meinte ich die AI selber. Aber auch Coden wird man immer weniger können.


coxon schrieb:
Ich habe die Tage einen Clip gesehen bei dem Claude
Ich sehe die Gefahr eher über die Unternehmen. Also Missbrauch von Nutzerdaten, die überall aufgezeichnet wurden, um Verkaufspreise, Versichtungsbeiträge usw zu manipulieren. Also alles was noch nicht verboten ist und sehr lange, sehr lange keine Rolle spielt, weil es keinem auffählt. Inklsuve Stromrechnung, mit der AI über alles und jeden Quersubventioniert werden wird.
 
Zuletzt bearbeitet:
@DeusExMachina

40%? Bei der allgemeinen IT-Projektquote von 75% Ausfall ist das fast schon ein Erfolg ;)

Aber im Ernst: Das Problem ist nicht 'der Agent' an sich. Die 40% scheitern, weil viele heute monolithische Black-Box-Agenten bauen und hoffen, die Probleme wegzuskalieren. Das scheint aber nicht zu funktionieren. Zumindest glaubt die Mehrzahl der AI-Forscher abseits von Silicon Valley nicht mehr daran.

Die Zukunft gehört vermutlich nicht einem großen Agenten, sondern vielleicht eher einem System vieler spezialisierter, die sich gegenseitig prüfen und korrigieren – Logik, Fakten, Kontext, jeweils aus verschiedenen Perspektiven. Daran forscht die KI-Welt gerade.

Kurzum: Die aktuellen Ausfälle sind nicht das Ende der Agenten, sondern das Ende der naiven ersten Generation. Ich bin da auch ein optimistischer Techniknerd. Aber ich glaube nicht wirklich daran, dass einfach mit mehr RAM und paar Kraftwerken diese Probleme in den Griff bekommen. Das ist Marketing und vermutlich eine Sackgasse.

Ein spannender Gegenentwurf zu diesem "Mehr-vom-Gleichen"-Ansatz ist zum Beispiel HyperClaw von SingularityNET. Die Idee dahinter ist nicht, einen riesigen Agenten zu bauen, sondern eine "kognitive Orchestrierungsebene" – ein System, das verschiedene spezialisierte Module (für Logik, Planung, Gedächtnis) koordiniert, ähnlich wie ein Dirigent ein Orchester. Es ist ein konkreter Forschungsansatz, der genau in die Richtung geht, über die wir sprechen: weg vom Monolithen, hin zu einem flexiblen, zusammengesetzten und letztlich hoffentlich robusteren System.

https://singularitynet.io/hyperclaw-a-cognitive-orchestration-layer-for-the-road-to-agi/

Aber HyperClaw ist nur ein Beispiel. Auch LangGraph oder CrewAI verfolgen solche modularen Ansätze. Aber man landet da aber auch sehr schnell bei irgendwelchen Forschungspapern in Harward. Wo ich mir nicht sichber bin ob ich mir das Antun will und kann. :daumen::evillol: Aber das lässt sich natürlich schlecht verkaufen. Und labelt jeder seinen Chatbot zum AI Agenten um, und seine AGI abteilung.
 
Das mag durch aus sein das am Ende was nützliches heraus kommt

Ob das noch jemanden interessiert wenn alle nur das abgefackelte geld sehen ...
 
Hier mal ein Video für alle Bubble-Leute 😉

 
  • Gefällt mir
Reaktionen: Kuristina
pootch schrieb:
Nachdem Deal mit dem US Pentagon, bin fertig mit openai.
Gibt genug Alternativen die sogar besser sind.

Die da wären?

Ich bezweifle allerdings, dass Alternativen besser sind.
Jeder Konkurrent von ChatGPT wird genauso die ganzen falschen Informationen aus dem Internet ungefiltert mit aufsaugen und am Ende eine genauso schlechte Qualität abliefern.

Umfangreiche Validitätsüberprüfungen scheinen nicht möglich zu ein. Vom Aufwand her und, wo soll überhaupt das ganze Wissen herkommen, das zu beurteilen, das hat die KI ja nicht per se.

Der Bullshit hat vielleicht ein paar farbliche Nuancen: hellkackbraun, dunkelkackbraun, ...

Aber im Wesentlichen bleiben Informationen, die aus dem ganzen fehlerhaften Gelaber aus Foren, Social Media, Web, YouTube und sonstigen Quellen stammen, inakkurat.

Die goldene Regel besagt: "Shit in – shit out."
 
  • Gefällt mir
Reaktionen: Maximum_1616
Brainorg schrieb:
Hier mal ein Video für alle Bubble-Leute 😉


Benchmarks haben keine Aussagekraft wenn die Kritierien Bekannt sind


 
DeusExMachina schrieb:
Benchmarks haben keine Aussagekraft wenn die Kritierien Bekannt sind

Und nun? In dem Video geht es nicht um Benchmarks.
Das ist eine Grundsatzerkenntnis und genau deshalb kann sich keine der aktuellen Großmacht leisten, nicht massiv weiter zu investieren weil wenn es der andere zu erst hat --> verloren.
 
  • Gefällt mir
Reaktionen: Maximum_1616 und Kuristina
Das hat wohl weniger mit Fomo zutun als mit strategischer weitsicht.
Naja, wir Deutschen wissen es wieder besser, deswegen sind wir auch seit Jahren so erfolgreich, neuste Forschung und Entwicklungen so erfolgreich zu realisieren. Deshalb blüht unser Land wirtschaftlich, haben die Energiewende erfolgreich und im geplanten Rahmen realisiert, die Renten und das Gesundheitswesen gesichert und spielen im Hightech Sektor ganz vorne mit 😄
Am besten du klärst mal die restliche Welt auf, das es totaler Quatsch und Geldverschwendung ist. Danke der feministischen Außenpolitik, ist dir die Aufmerksamkeit sicher gewiss. Was wissen schon die anderen stümper wie China und die USA. Solche amateur.
 
Ich habe jetzt keine ChatGPT 5.2 mehr, sondern zweimal 5.3 und zweimal 5.4 in meinem Enterprise Account.
 
Zurück
Oben