ChatGPT befolgt nicht die Anweisungen

Muki003 schrieb:
Da ist es etwas besser, aber es werden trotzdem , wenn auch weniger falsche Zuordnungen getroffen

Azghul0815 schrieb:
Wenn dennoch 50 bis 80% der Gruppierung korrekt sind, dann ists doch schon was...
100% zu erreichen wird nicht möglich sein.
Also was ist schneller?
1000 Anfragen und dann von Hand überprüfen oder gleich 1000 anfragen richtig einordnen?
 
Muki003 schrieb:
Ich arbeite in einem kleinen Verkehrsunternehmen und nutze ChatGPT für Unternehmen.

Ich habe ca.1000 Anfrage weitergeleitet bekommen, welche ich mit Hilfe der KI kategorisieren soll.
Es gibt 8 Kategorien, wo die ca.1000 Anfragen (2-3 Sätze/Anfrage) eingeordnet werden sollen.

Ja, KI ist nicht gleich KI, es gibt "bessere" und "schlechtere" Modelle Deine gleiche Anfrage in einem anderen LLM, funktioniert tadellos. In meinem Fall hab ich den Promt in Gemini probiert. Und das hat dann das verllorene Vertrauen in "sonstiges" einsortiert.

Leider hab ich das nicht als PDF exportieren können, daher der Link zum Chat.

https://gemini.google.com/share/db76069c8a30

Grüße
Olav
 
  • Gefällt mir
Reaktionen: Muki003
valovalo schrieb:
Ja, KI ist nicht gleich KI, es gibt "bessere" und "schlechtere" Modelle Deine gleiche Anfrage in einem anderen LLM, funktioniert tadellos. In meinem Fall hab ich den Promt in Gemini probiert. Und das hat dann das verllorene Vertrauen in "sonstiges" einsortiert.

Leider hab ich das nicht als PDF exportieren können, daher der Link zum Chat.

https://gemini.google.com/share/db76069c8a30

Grüße
Olav
wenn ich es einzeln reinschreibe funktioniert es. Nur bei größeren Mengen scheint es nach Key-Wörtern zu suchen
 
Wo bin ich hier schrieb:
Und dein Problem, dass du dich verlaufen hast soll dort mit auftauchen (mit vermutlich privaten Adressangaben)? :)
Viel Spaß mit dem Besuch an einer Adresse wo ich mal vor 50 Jahren als Kind lebte :-) Aber Berlin ist immer eine Reise Wert :-)
 
kachiri schrieb:
Das Modell tut, was du von ihm verlangst, und versteht es halt trotzdem falsch.
In deinem Beispiel versteht das Modell halt nicht, dass das "Vertrauen" kein Gegenstand ist, den man in Bahn und Bus "verliert".
Als langjähriger Pendler muss ich da vehement widersprechen!

Man kann sehr wohl das Vertrauen in die Bahn in der Bahn verlieren. ;)
 
Muki003 schrieb:
Da ist es etwas besser, aber es werden trotzdem , wenn auch weniger falsche Zuordnungen getroffen
Wenn Du von den Anfragen ein paar nimmst, die eigentlich eine eindeutige Zuordnung zuließen, beobachtest Du das Problem weiterhin? Klingt für mich nach einer Form von "Laziness" und sowas habe ich bei vergleichbaren Aufgabentypen bereits beobachtet. Das scheint immer noch eine der Schwachstellen von LLMs zu sein. Ich glaube nicht, dass man hier allein durch besseres Prompting weiterkommt, sondern nur mit organisatorische Maßnahmen (wie Aufsplitten der Aufgabe).
 
Willst du die Nachricht in Kategorien einsortieren, oder das Anliegen des Kunden? Das sind ja zwei verschiedene Dinge. Darüber hinaus möglichst jede Nachricht in einem eigenen Request an das LLM schicken. Je mehr Nachrichten du versuchst, in einem Request zu bearbeiten, um so höher wird die Wahrscheinlichkeit, das Käse raus kommt.
 
  • Gefällt mir
Reaktionen: Kuristina
Zurück
Oben