Chat GPT dumm?

Ich hab ChatGPT fallen lassen wie ne heiße Kartoffel weils sich wie ein Kind verhalten hat, dauernd Smileys in die Konversationen gepackt hat, Dinge verpeilt hat, Aufgaben nicht richtig ausgeführt hat und unterm Strich nur Mist rauskam.

Wenn ich mich mit einem KI LLM beschäftige, dann mit Claude AI, produktiv, wie hier auf meinem Linux, und sicher nicht einfach nur aus Spaß. Allerdings muss ich auch dazu sagen, dass ich meine Prompts und Aufgaben so spezifisch und detaliert wie möglich einreiche um das beste Ergebnis zu erhalten, und Claude auch anweise, sich bestimmte Dinge zu merken. Ich geh recht ernst und trocken mit LLMs um und will keine kindischen Antworten erhalten, sondern Ergebnisse. ;)
 
  • Gefällt mir
Reaktionen: Lucky#Slevin200 und Goltz
Du kannst aber jeder KI sagen, wie du deine Antworten willst. Wenn du einfach nur Ergebnisse möchtest ohne Smalltalk, Emojis und was weiß ich was musste denen das nur einmal sagen und gut ist
 
  • Gefällt mir
Reaktionen: SaschaHa, tRITON und prayhe
coxon schrieb:
Ich hab ChatGPT fallen lassen wie ne heiße Kartoffel weils sich wie ein Kind verhalten hat, dauernd Smileys in die Konversationen gepackt hat, Dinge verpeilt hat, Aufgaben nicht richtig ausgeführt hat und unterm Strich nur Mist rauskam.
Wie immer im Leben ist "communication the key" ;) Du musst ChatGPT nur sagen, wie es sich verhalten und antworten soll, und auch, dass du keine Emojis willst. Regulär erstellt ChatGPT ein recht ausführliches Profil über dich und hält sich dann an deine Anforderungen. Mal mehr und mal weniger, da eben auch eine KI eine gewisse "Persönlichkeit" hat. Und auch, wie du deine Prompts aufbaust, hat einen erheblichen Einfluss auf die Ergebnisse. Je präziser du dein Problem beschreibst und je schneller du dabei auf den Punkt kommst, desto besser. Metaphern oder lange Abschweifungen können sich hingegen eher negativ auswirken.

Aber jedem das Seine. Bei mir funktioniert ChatGPT prima, aber mit Einschränkungen.
 
  • Gefällt mir
Reaktionen: prayhe
Negan75 schrieb:
Warum schwachsinnig? Wenn eine AI so einfache Sachen nicht weiss... Naja.
Weil Intelligenz nicht Allwissenheit sämtlicher im Internet verfügbarer Informationen bedeutet.

Ein Hund, Rabe oder Tintenfisch hat beispielsweise auch eine Intelligenz, und diese nicht mal künstlich.
Und 50% der Menschheit könnte diese Frage auch nicht beantworten, weil sie entweder keinen Zugriff auf dieses Wissen haben, es kognitiv nicht zustande bringen oder falsch beantworten.

Oder eine Antwort der KI selbst:
ChatGPT ist ein KI-Chatbot, der von OpenAI entwickelt wurde und auf dem GPT-Modell (Generative Pre-trained Transformer) basiert. Es handelt sich um ein großes Sprachmodell (Large Language Model), das mit einer riesigen Menge an Textdaten aus dem Internet trainiert wurde – darunter Bücher, Artikel, Webseiten und Code.

Das Modell analysiert Eingaben (Prompts) und generiert menschlich klingende Antworten durch Vorhersage des nächsten Wortes, basierend auf erlernten Sprachmustern, Kontext und Wahrscheinlichkeiten. Es verfügt über eine Transformer-Architektur, die es ermöglicht, komplexe Zusammenhänge und Bedeutungen in Texten zu erfassen, unabhängig von der Position der Wörter.

Wichtig: ChatGPT „denkt“ nicht wie ein Mensch. Es simuliert menschliches Sprachverhalten, indem es Muster aus seinem Trainingsdatenmaterial erkennt. Es hat keinen Zugriff auf aktuelle Daten nach dem Training (Stand: November 2022) und kann daher nicht immer aktuell oder korrekt sein.
 
SaschaHa schrieb:
Wie immer im Leben ist "communication the key" ;) Du musst ChatGPT nur sagen, wie es sich verhalten und antworten soll, und auch, dass du keine Emojis willst.
Naja, eigentlich hab ich da absolut kein Bock drauf nem KI Modell erst mal beizubringen wie es sich mir gegenüber zu benehmen hat. Und ja, das hab ich trotzdem getan, aber für mich hat es einfach nichts gebracht. €dit: weils vergesslich war und dauernd in default Bla zurück ist ... Hät ich dafür Geld gezahlt, hät mich das sehr geärgert.
SaschaHa schrieb:
Mal mehr und mal weniger, da eben auch eine KI eine gewisse "Persönlichkeit" hat.
Will ich nicht. Das soll so trocken und lösungsorientiert sein wie es nur geht. Wenn ich nen Chatbot will, dann such ich mir einen und lern ihn an. Mir ging aber das Defaultsetting von ChatGPT nach zwei Wochen tierisch auf den Sack weils sich einfach nicht gemerkt hat was ich will und ich es dauernd "neu anlernen" musste...

Das ist einfach nicht das was ich mir unter einer KI, bzw. einem LLM, vorstelle. Das Ding soll einfach seine Arbeit machen und mich bestmöglich unterstützen.
Ergänzung ()

Kleiner Nachtrag:
Das hier ist Claude AI. Dem hab ich schon drei mal gesagt, dass sudo und KWrite zusammen nicht geht, und das hats trotzdem vergessen.
1774287471064.png

Erst als ich dann wirklich gesagt hab, du, so nicht, kam dann das.
1774287533793.png


Und das war mit ChatGPT noch viel, viel schlimmer. Das hat mich echt wahnsinnig gemacht weils einfach Zeit gefressen hat die ich anderswo hätte besser investieren können.
 
Zuletzt bearbeitet:
@coxon
Willst keine Emojis, nutzt aber Emojis. Häh? An dem kleinen Ausschnitt merkt man aber, dass vernünftiges Prompten auch in irgendeiner Form gelernt sein will.
 
  • Gefällt mir
Reaktionen: SaschaHa
4nanai schrieb:
Willst keine Emojis, nutzt aber Emojis. Häh?
Das war das Ende eines bestimmten Tasks, und da habe ich mir dann auch mal selbst Eines erlaubt.
Schließe bitte nicht von dem einen Fetzen auf den Rest. ;)

4nanai schrieb:
An dem kleinen Ausschnitt merkt man aber auch, dass vernünftiges Prompten auch in irgendeiner Form gelernt sein will.
Siehe obendrüber. Ich hab Claude mehrfach gesagt, ich will kein nano, und dass KWrite nicht mit sudo geht. Es ist nicht so, dass es das vergisst, es denkt nur manchmal nicht dran. Ansonsten hat mich das LLM immer sehr zuverlässig bei meiner Linux-Reise unterstützt und sich wirklich nur wenige Patzer geleistet. Die Screenshots sollten nur exemplarisch dafür stehen, was mir bei ChatGPT auf Dauer nicht gefallen hat.
 
coxon schrieb:
Ich hab ChatGPT fallen lassen wie ne heiße Kartoffel weils sich wie ein Kind verhalten hat, dauernd Smileys in die Konversationen gepackt hat, Dinge verpeilt hat, Aufgaben nicht richtig ausgeführt hat und unterm Strich nur Mist rauskam.

Du hast seinen letzten Satz vergessen:

"Wenn Du willst kann ich Dir/ sag ich Dir.."

vergessen.
 
@bettenlager Oh ja! Das am Ende eines jeden Tasks ging mir gehörig auf den Sack! Ich hab ChatGPT auch locker zehn mal gesagt, dass ich das nicht will und letztendlich mit dem LLM ein "Gespräch" darüber geführt. Stellte sich raus, es ist so ge-hardcoded, dass es das macht ... Das hat mich irgendwann ebenfalls zur Weißglut gebracht ... Scheiß auf ChatGPT, es gibt bessere LLMs bei denen ich mir sowas nicht antun muss. ;)
 
prayhe schrieb:
Das war nur in den Anfangszeiten so. Die üblichen Verdächtigen wie ChatGPT und co. durchsuchen schon lange aktiv das Web und sollten eigentlich in der Lage sein sich aktuelle Infos zu ziehen.
Nur wenn ich mitteile es soll recherchieren und das passende Model wähle.
Bei mir geht's...
https://chatgpt.com/share/69c1842f-a030-8395-b2a5-91d0f5de527c

Und was das Produktive Arbeiten angeht, @coxon
Ich nutze grad cursor mit codex und da kommen ganz brauchbare sachen bei rum.
Ebenso Scripte mit ChatGPT oder Gemini (beide Plus). Ich hab mir aber angewöhnt beim Vibe Coden eine Agent.md mitzugeben, in der Information liegen die er nicht vergessen soll und bei ChatGPT arbeite ich mit Prozenten und Projekt Files. Da wird sowas nicht vergessen
 
  • Gefällt mir
Reaktionen: SaschaHa, cubisticanus und coxon
  • Gefällt mir
Reaktionen: Azghul0815
wuselsurfer schrieb:
1+1 ergibt 0 Übertrag 1
Dazu fällt mir immer direkt ein.. "Wie bestellen Informatiker 4 Bier?"
 
Ja, so ist es halt. Zum einen ist die Antwort nur so gut, wie die Frage, die gestellt wurde und wie ChatGPT diese Frage interpretiert. Zum anderen ist die Antwort stets nur die wahrscheinlichste Antwort auf der Basis der Frage und auf der vorhandenen Datenbank, die mit allerlei Daten aus der nahen bis weit entfernten Vergangenheit gefüttert wurde. Oder jedenfalls das, was ChatGPT für die wahrscheinlichste Antwort hält.
 
  • Gefällt mir
Reaktionen: SaschaHa
@coxon
coxon schrieb:
wie ne heiße Kartoffel
coxon schrieb:
coxon schrieb:
coxon schrieb:
coxon schrieb:
absolut kein Bock drauf
coxon schrieb:
dauernd in default Bla zurück
coxon schrieb:
tierisch auf den Sack
coxon schrieb:
ging mir gehörig auf den Sack!
coxon schrieb:
Ich will jetzt nicht meckern, aber bei der Art und Weise, wie du hier schreibst, wundert es mich nicht, dass die KI-Modelle dir nur Müll zurückgeben. Bei deinen Prompts aus den Screenshots sieht es ja jetzt nicht gerade besser aus. Wenn du vernünftige Antworten von LLMs haben willst, musst du auch deine Fragen vernünftig stellen und dich vor allem an deine eigenen Regeln ("keine Emojis!") halten. LLMs sind keine Wissensdatenbanken, sondern eben Sprachmodelle. Die reagieren empfindlich auf den Input und passen sich - je nach Modell - an den Fragesteller an. Wenn du darauf "absolut kein Bock" hast, liegt halt bei dir das Problem, nicht bei der KI.
 
SaschaHa schrieb:
Ich will jetzt nicht meckern, aber bei der Art und Weise, wie du hier schreibst, wundert es mich nicht, dass die KI-Modelle dir nur Müll zurückgeben.
Sagt wer? Ich sprach rein vom kostenfreien ChatGPT Modell.

SaschaHa schrieb:
Wenn du vernünftige Antworten von LLMs haben willst
Die bekomme ich. Warum stellst du das anders hin?
SaschaHa schrieb:
musst du auch deine Fragen vernünftig stellen und dich vor allem an deine eigenen Regeln ("keine Emojis!") halten.
komplett aus dem Kontext gerissen. Es ging mir um das Verhalten von ChatGPT.
SaschaHa schrieb:
Die reagieren empfindlich auf den Input und passen sich - je nach Modell - an den Fragesteller an. Wenn du darauf "absolut kein Bock" hast, liegt halt bei dir das Problem, nicht bei der KI.
Komisch. Claude benimmt sich mir gegenüber ganz normal, anders als ChatGPT.
 
coxon schrieb:
Die bekomme ich. Warum stellst du das anders hin?
Inwiefern stelle ich das anders hin? Das ergibt sich doch aus den Zitaten!?

coxon schrieb:
Es ging mir um das Verhalten von ChatGPT.
Auch das ist abhängig von deinen Prompts und erfordert auch eine gewisse Konsistenz. Wenn du dich bei deinen Fragen nicht an deine eigenen Anforderungen hältst, "verlernt" die KI das auch. Zumal dessen "Gedächtnis" - also der beachtete Kontext - eben begrenzt ist. Aber wie gesagt, eine gewisse Persönlichkeit bleibt in der KI ja trotzdem erhalten. Wenn dir die nicht gefällt, ist das ja legitim.

coxon schrieb:
Komisch. Claude benimmt sich mir gegenüber komplett anders als ChatGPT.
Habe auch nichts anderes behauptet:
SaschaHa schrieb:
Das gilt natürlich auch für das grundsätzliche Verhalten solcher KIs. Die sind halt unterschiedlich.
 
SaschaHa schrieb:
Inwiefern stelle ich das anders hin? Das ergibt sich doch aus den Zitaten!?
Eben nicht. Du zitierst einfach nur zusammenhangslos Teile meiner Beiträge und stellst sie in einen absurden Kontext, der teils zwar nachvollziehbar ist, aber das Relevante was in diesem Beitrag geschrieben habe, da gehst du nicht drauf ein. Deswegen bin ich gerade auch etwas gelangweilt von dieser Unterhaltung mit dir und hab da echt keine Lust weiter drauf einzugehen, denn mir ging es rein um die Erfahrungen die ich persönlich mit ChatGPT letztes Jahr gesammelt habe. Wenn man diesem Modell nicht explizit sagt was man will, oder wie @Azghul0815 schon gesagt hat, eine Agent.md vorab gibt, waren meine nicht gut. Mit anderen Modellen habe ich bessere Erfahrungen gemacht, und das wars auch jetzt für mich, ich werde mich hier nicht weiter äußern.

Kleinen Nachtrag hab ich noch:
bettenlager schrieb:
"Wenn Du willst kann ich Dir/ sag ich Dir.."
Das hier war etwas das mich massiv gestört hat und dieses Verhalten habe ich trotz mehrfacher und konsequenter Aufforderung bei CGPT nicht abstellen können, es hat das immer wieder gemacht.
 
Zurück
Oben