wird chat gpt immer dümmer?

Amelie5000

Ensign
Registriert
Sep. 2022
Beiträge
244
Was ist nur los mit ChatGPT? Die KI liefert mir inzwischen immer häufiger fehlerhafte Antworten, obwohl ich ihr ausreichend Zeit einräume, statt sofort zu reagieren.


Selbst simple Anweisungen, die zuvor reibungslos befolgt wurden, funktionieren plötzlich nicht mehr.


Und selbst wenn die KI die Regeln erneut wiederholt, treten die Fehler erneut auf.


Ist das nur eine verzerrte Wahrnehmung meinerseits, oder ist euch in diesem Zusammenhang Ähnliches aufgefallen?
 

Anhänge

  • dümmer.png
    dümmer.png
    112,7 KB · Aufrufe: 716
chatgpt ist eine sammlung an verschiedenen Modellen. Jedes Modell reagiert je nach Architektur und Alignment unterschiedlich. Das aktuelle 4o ist ein massiver schleimer, der nicht macht was man ihm sagt, aber dafuer komplimente ohne ende gibt.

Determinismus wirst du da jedoch wenig finden
 
  • Gefällt mir
Reaktionen: iSight2TheBlind
ChatGPT ist keine KI sondern ein Chatbot/Sprachmodell und deren Antwort immer unterschiedlich (bewusst!), vielleicht überdenkst du die Nutzung davon.
 
  • Gefällt mir
Reaktionen: wolve666, dms, Kenmeri und 8 andere
Das ist mir tatsächlich auch schon aufgefallen. Ich habe in letzter Zeit oft völlig unpassende Antworten auf simple Fragen, bei denen ich sogar schon sehr viel mit eingrenze.
 
Frag Perplexity :)
Oder such ein Modell, welches deine Anforderungen erfüllt wie @Sandro_Suchti bereits erwähnt hat.
 
  • Gefällt mir
Reaktionen: omavoss und madmax2010
Ich kann nicht wirklich erkennen, was du von ChatGPT möchtest. Möglicherweise liegt es an deinem Prompt? Er scheint nicht besonders aussagekräftig zu sein.
 
  • Gefällt mir
Reaktionen: redfng, Sinatra81, Chesterfield und 2 andere
die KI lernt quasi vom Benutzer^^
 
  • Gefällt mir
Reaktionen: Blood011, dms, fr13del und 5 andere
ChatGPT passt sich halt nur an das durchschnittliche geistige Niveau der Menschen an... Wenn man bedenkt, dass die meisten Daten in den USA gesammelt werden... 🙄
 
  • Gefällt mir
Reaktionen: Blood011, user_zero, fr13del und 7 andere
Man sollte sich bewußt sein, dass generative KI "einfach" die Wörter aneinanderreiht, die statistisch betrachtet am wahrscheinlichsten als nächstes Folgen müssen.
Echte Intelligenz ist da nicht vorhanden und daher gibt es oft auch Probleme mit Zusammenhängen und Chatverlauf berücksichtigen.

Daher finde ich es eher überraschend was alles möglich ist.

Eingaben müssen sehr präzise und idealerweise auf einmal erfolgen für ein gutes Ergebnis
 
  • Gefällt mir
Reaktionen: AwesomSTUFF, fr13del, VmaxGunni und 3 andere
Mosed schrieb:
Man sollte sich bewußt sein, dass generative KI "einfach" die Wörter aneinanderreiht, die statistisch betrachtet am wahrscheinlichsten als nächstes Folgen müssen.
Echte Intelligenz ist da nicht vorhanden und daher gibt es oft auch Probleme mit Zusammenhängen und Chatverlauf berücksichtigen.
Ich fühle deine Aussage.
Ich rede auch ungern von KI wenn es nichts mit allgemeiner Intelligenz zutun hat....
KI hier KI da
 
  • Gefällt mir
Reaktionen: -=:Cpt.Nemo:=-, TheHille und madmax2010
Mosed schrieb:
Man sollte sich bewußt sein, dass generative KI "einfach" die Wörter aneinanderreiht, die statistisch betrachtet am wahrscheinlichsten als nächstes Folgen müssen.
Echte Intelligenz ist da nicht vorhanden und daher gibt es oft auch Probleme mit Zusammenhängen und Chatverlauf berücksichtigen.

Daher finde ich es eher überraschend was alles möglich ist.

Eingaben müssen sehr präzise und idealerweise auf einmal erfolgen für ein gutes Ergebnis
da geb ich dir Recht allerdings habe ich Chat GPT klare Regeln definiert um Ergebnis zu bekommen so wie ich sie haben möchte... meine Frage wäre eher warum bricht die KI klar definierte Nutzer Regeln?
 
ChatGPT liefert bei mir immer das Ergebnis das ich erwarte, keine Ahnung welchen Prompt du eingibst und was du erwartest.
 
  • Gefällt mir
Reaktionen: Sinatra81
Amelie5000 schrieb:
da geb ich dir Recht allerdings habe ich Chat GPT klare Regeln definiert um Ergebnis zu bekommen so wie ich sie haben möchte
welche regeln hast du definiert?
Welches Modell nutzt du?
Wie lang ist der Kontext?
 
Was niemand so richtig geschrieben hat, bisher, ChatGPT braucht Rechenzeit. Und Rechenzeit kostet Geld. Also werden die Modelle immer mehr dahingehend optimiert, dass weniger Rechenzeit oder allgemein HW-Ressourcen gebraucht werden. Das spart kosten, macht aber die Modelle halt auch "dümmer".
 
  • Gefällt mir
Reaktionen: MountWalker, Banned und madmax2010
Prompts, ändern sich natürlich bei jeder Eingabe allerdings ändern sich ja nicht die Regeln die man vorher definieren konnte also müsste man ja das Ergebnis mit 4.o schon so sein das es die Regeln einhält
 
ChatGPT vergisst ja selbst bei Codeanpassungen den zuvor erstellten Code.
Solange ich keine konkreten Daten eingeben muss, verwende ich mittlerweile andere LLMs für drastisch bessere Ergebnisse.
Und ja, ich habe Zugriff auf einen ChatGPT Premium Account.

Ich weiß nicht warum du mit dem Bot über Vertragsstrafen für Verlage diskutierst, aber scheinbar bist du bei dem Thema einem Chatbot schon richtig aufgehoben.
Wenn du willst, dass was sinnvolles rauskommt, sollstest du ebenfalls andere Modelle verwenden.
 
kostenlos oder PRO?

Für mich fühlt es sich immer mehr an wie "Upselling".

Also die Bezahlversion soll attraktiver gemacht werden.
Die kostenlose madiger ...

Auf jeden Fall war es schon mal "besser". Sehe ich auch so.
 
Zurück
Oben