News OpenAI GPT 5.1: KI wird nicht nur intel­ligenter, sondern auch freundlicher

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.101
  • Gefällt mir
Reaktionen: nuego, schneeland, MaverickM und eine weitere Person
@Paladin301
Wenn dann doch lieber Friday. Friday war die weiterentwickelte Version von JARVIS.
 
  • Gefällt mir
Reaktionen: slow_snail, nyster und Fliz
Viel wichtiger fände ich, wenn sich das Blöde Ding endlich mal merken würde, dass ich nur Antworten möchte wenn das System sich auch sicher ist und lieber zugeben soll, wenn es was nicht weiß anstatt dann irgendeinen verrückten Käse zu erfinden und den ohne Hinweis darauf als wahre Antwort auszugeben.
 
  • Gefällt mir
Reaktionen: rescuemod, jusaca, M-X und 59 andere
Ich gehe da mit DaringFireball konform, die Freundlichkeit ist Bullshit!

I find the new default response from 5.1 to be a glaring regression. I loathe the shit like “I’ve got you” and “especially with everything you’ve got going on lately”. ChatGPT has no fucking idea what I’ve got going on lately. This is all phony bullshit, and if you have even a thimbleful of understanding how LLMs work, you know it’s phony.
 
  • Gefällt mir
Reaktionen: Paddinski, Robot, gartenriese und 16 andere
Neben Halluzinationen nervt mich am meisten das nach dem Mund reden. Die KI versucht gefühlt immer, mich zu bestätigen und das ist nervig.
 
  • Gefällt mir
Reaktionen: rescuemod, jusaca, getexact und 39 andere
Ich würde gerne die Version ab 18 aus wissenschaftlichen Gründen analysieren.
 
  • Gefällt mir
Reaktionen: Terrordrome, latexdoll, Scirca und 5 andere
Guitarluke schrieb:
Viel wichtiger fände ich, wenn sich das Blöde Ding endlich mal merken würde, dass ich nur Antworten möchte wenn das System sich auch sicher ist und lieber zugeben soll, wenn es was nicht weiß anstatt dann irgendeinen verrückten Käse zu erfinden und den ohne Hinweis darauf als wahre Antwort auszugeben.
Kann ich gut nachvollziehen. ChatGPT redet dem Nutzer gern nach dem Mund. Nicht nur neigt es sehr stark dazu, dem Confirmation-Bias des Anwenders zuzuspielen, wenn dieser nicht sehr stark gegensteuert, es suggeriert ihm auch gerne Fähigkeiten, die es gar nicht hat, sofern danach gefragt wird. Und halluzinierte Informationen kriegt man auch verdammt schnell zurzeit, das ist definitiv wahr. Klar, bei Nachfragen korrigiert es sich dann auch schnell, aber es dürfte ruhig auch von vorneherein etwas genauer sein. Mit einem Dutzend Prompts nachjustieren zu müssen, bis es mal halbwegs passt, ist schon ziemlich nervig. Das kann Gemini derzeit ehrlich gesagt besser - wenigstens mein subjektiver Eindruck.
Kuristina schrieb:
Du sprichst dem Ganzen ein Bewusstsein zu, was es nicht haben kann.
Dir ist sicher klar, dass er das nicht wörtlich meint. Es ist schon richtig, dass ChatGPT aktuell gerne vorgibt, etwas für dich tun zu können, selbst wenn es das nicht kann.
Bitte es einfach mal darum, ein spezifisches Dokument im PDF-Format für dich zu generieren. Nachdem alle Abfragen durch sind, in deren Verlauf es dir fortlaufend suggerieren wird, dass es das könne, wird es dir sagen, dass es dazu doch nicht in der Lage ist. Transparenz von Anfang an wäre da schon ganz nett, vor allem wenn sich der Nutzer über den Funktionsumfang des Programms nicht vollends im Klaren ist.
tidus1979 schrieb:
Neben Halluzinationen nervt mich am meisten das nach dem Mund reden. Die KI versucht gefühlt immer, mich zu bestätigen und das ist nervig.
Hundertprozentig wahr. Hilft Leuten, die mit dem Kram aktuell aufwachsen und solchen, die sich in Schwurbler-Kreisen bewegen, natürlich besonders. "Die KI hat mir das aber so gesagt, öööööh". ChatGPT ist in dieser Hinsicht momentan schlimmer als jeder Social-Media-Filter. Man muss da als Nutzer echt hochreflektiert und mit der Bereitschaft zu laufenden Korrekturen herangehen, sonst kann man eine produktive Nutzung gleich vergessen. Und mal ehrlich, wie groß ist der Prozentsatz der Nutzerschaft wohl, auf die das Attribut "hochreflektiert" zutrifft? :D

Für mich klingt "freundlicher" in diesem Zusammenhang daher auch erstmal nach einer Verstärkung dieser Tendenz. Kann man nur hoffen, dass es nicht so ist :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese, Flunkiii, Azeron und 8 andere
nobody360 schrieb:
Ich würde gerne die Version ab 18 aus wissenschaftlichen Gründen analysieren
Mach das. OpenAi wird dich dann aus wirtschaftlichen Gründen analysieren. ;)
 
  • Gefällt mir
Reaktionen: gartenriese, gamerbase, monstar-x und 7 andere
Kuristina: es geht dabei nicht um ein Bewusstsein, sondern um Funktionalität. Wie auch immer es umgesetzt wird, es ist eine legitime Forderung der User.

Zum Thema: Ich behaupte für 90% der User ist es relativ egal, ob es Spaß macht. Es soll mit möglichst geringem Promptaufwand die gewünschte Antwort liefern und evtl. noch relevante Zusatzinfos. Es ist nicht notwendig pseudomenschliche Phrasen zu dreschen.
 
  • Gefällt mir
Reaktionen: getexact, Azeron, Lynchtactical und 4 andere
Guitarluke schrieb:
Viel wichtiger fände ich, wenn sich das Blöde Ding endlich mal merken würde, dass ich nur Antworten möchte wenn das System sich auch sicher ist und lieber zugeben soll, wenn es was nicht weiß anstatt dann irgendeinen verrückten Käse zu erfinden und den ohne Hinweis darauf als wahre Antwort auszugeben.
Das wär der heilige Gral. Und schlicht fundamental nicht machbar mit einem LLM.
 
  • Gefällt mir
Reaktionen: latexdoll, honky-tonk und iSight2TheBlind
Finale KI-Settings von TARS im Film Interstellar:
Ehrlichkeit 95%
Humor 60%

Vielleicht kann das der Benutzer beim OpenAI GPT auch zukünftig individuell einstellen.
Jeder möchte vielleicht nach eigenem Geschmack von der KI angesprochen werden.
:D

Nachtrag: Ach ja, wenn die KI schwindelt, um den Nutzer nicht zu verletzen, sollte die Lampe angehen :D
 
  • Gefällt mir
Reaktionen: Golden_
tidus1979 schrieb:
Die KI versucht gefühlt immer, mich zu bestätigen und das ist nervig.
Ja na klar versucht sie das, soll ja ein Gespräch bleiben und nicht in nem Meinungsverschiedenheits-Streit ausarten. ;)
 
Irgendwas zur Performance der neuen Modelle? Also konkret in Zahlen ausgedrückt, verglichen mit älteren Modellen vielleicht?

Ansonsten ist das ja alles nur Marketing Wischiwaschi
 
iSight2TheBlind schrieb:
LLMs sind halt Textausgabegeneratoren, Übereintreffungen mit der Realität sind glückliche Zufälle!
Ist das beim Menschen anders? :D
 
  • Gefällt mir
Reaktionen: Nahkampfschaf und iSight2TheBlind
Zurück
Oben