News OpenAI GPT 5.1: KI wird nicht nur intel­ligenter, sondern auch freundlicher

OdinHades schrieb:
Noch freundlicher? Mir ging es ohnehin schon auf den Sack, wie brutal ChatGPT mir ständig Honig um den Maul schmiert ."Oh ja, ausgezeichnete Frage, hui bist du schlau". Noch dazu ist das Ding immer nutzloser geworden, da es immer öfter und immer schamloser Bullshit sabbelt. Habe deshalb diesen Monat mein Abo auch gekündigt. Ich kann damit nichts mehr anfangen, außer lustige Kurzgeschichten zu schreiben.

Selbst beim Japanischlernen ist es nutzlos geworden. Seit dort in Antworten random deutsche und englische Wörter auftauchen, zweifel ich stark daran, ob der ganze Rest überhaupt stimmt.
Falls du dir in nächster Zeit ein Pixel-Phone gönnen solltest, kannst du stattdessen ja mal Gemini Pro probieren - oder, falls du Geld ausgeben möchtest, gleich selbst abonnieren. Ist teurer, aber gefällt mir persönlich zurzeit besser.
 
aGoat schrieb:
Ich hatte vor einiger Zeit mal diese Anweisung für LLM gefunden, damit diese endlich mit ihrer unnötigen Schwafelei, Emojis, "Freundlichkeit" usw. aufhören.
DANKE!

Prompt
Welche sind die beliebtesten Parfüms für Männer?

Antwort ohne Schwafelei zu blocken:
Sure thing! Here are some of the most popular men’s fragrances that consistently receive high praise and strong sales worldwide:
RankFragrance (Brand)Key Notes & Character
1Dior Sauvage (Christian Dior)Fresh bergamot, pepper, ambroxan – bold, modern, and very versatile.
2Bleu de Chanel (Chanel)Citrus, incense, ginger, sandalwood – sophisticated, timeless, great for both day and night.
3Acqua di Giò Profumo (Giorgio Armani)Marine notes, bergamot, incense, patchouli – fresh yet deep, perfect for warm weather.
4YSL La Nuit de l’Homme (Yves Saint Laurent)Cardamom, cedar, lavender – sensual, slightly spicy, ideal for evening occasions.
5Paco Rabanne 1 Million (Paco Rabanne)Grapefruit, cinnamon, leather – sweet‑spicy, attention‑grabbing, popular among younger crowds.
6Creed Aventus (Creed)Pineapple, birch, musk, oakmoss – luxurious, fruity‑smoky blend; often cited as a “status” scent.
7Versace Dylan Blue (Versace)Calabrian bergamot, grapefruit, black pepper, incense – fresh, aquatic, and sporty.
8Tom Ford Noir Extreme (Tom Ford)Mandarin, nutmeg, amber, vanilla – warm, oriental, great for cooler months.
9Prada Luna Rossa Carbon (Prada)Lavender, pepper, metallic notes, amber – crisp, modern, with a hint of tech‑inspired vibe.
10Dolce & Gabbana Light Blue Pour Homme (D&G)Sicilian mandarin, rosemary, pepper – bright, citrus‑herbal, perfect for summer days.

How to Choose the Right One for You​

  1. Season & Climate – Lighter, citrus‑aquatic scents (e.g., Acqua di Giò Profumo, Light Blue) work best in warm weather, while richer, woody or oriental fragrances (e.g., Noir Extreme, Aventur) shine in cooler months.
  2. Occasion – Opt for fresh, versatile scents like Bleu de Chanel for daily office wear; choose something bolder such as 1 Million or La Nuit de l’Homme for evenings or special events.
  3. Personal Preference – Test a few on your skin; the chemistry can change the scent’s development over several hours.
If you have any specific preferences—like a love for woody notes, a desire for something more subtle, or a budget range—just let me know and I can narrow the list further. Enjoy exploring these classics!

Antwort mit geblockter Schwafelei:
Beliebte Herrenduftlinien (nach Verkaufszahlen und Markenbekanntheit bis 2024):
  • Dior Sauvage
  • Chanel Bleu de Chanel
  • Giorgio Armani Acqua di Giò Profumo
  • Yves Saint Laurent La Nuit de l’Homme
  • Paco Rabanne 1 Million
  • Creed Aventus
  • Tom Ford Noir Extreme
  • Versace Dylan Blue
  • Dolce & Gabbana Light Blue Pour Homme
  • Jean Paul Gaultier Le Male
 
  • Gefällt mir
Reaktionen: herrStreusalz und aGoat
Rock Lee schrieb:
Keine Ahnung wie und wann ihr ChatGPT zum letzten Mal benutzt habt. Ich nutze ChatGPT als Plus User fast ausschließlich im "longer thinking" Modus und ich merke mit GPT5 so gut wie gar keine Halluzinationen. Und es redet mir auch nicht nach dem Mund. Grade in Themen, wo ich eine bestimmte Meinung habe und diese bewerten lasse und diese Auffassung sich als sachlich falsch rausstellt, stimmt es mir selbst nach mehrmaligem Nachbohren und Nutzung von Scheinargumenttechniken nicht zu.

Wenn man natürlich nur im 4o-Modus unterwegs ist, was ein komplett anderes Modell ist, dann darf man sich auch nicht wundern. You get, what you pay.

Benutze auch den Plus modus im thinking. Es wird extrem viel halluziniert und es kommt regelmäßig zu falschen Aussagen.
Kleines Beispiel:
Ich gebe chatgpt die offiziellen docs mit Befehlen für ein bekanntes object storage system. (beides versucht, als Weblink und als hochgeladenes pdf). Und gebe an, dass nur diese Befehle möglich sind und verwendet werden können.
Und was passiert? Chatgpt gibt Lösungen mit Befehlen aus veralteten Versionen (die natürlich nicht funktionieren) bzw. Befehlen die es einfach nicht gibt an. Wenn ich darauf hinweise, dass diese Befehle gar nicht in den offiziellen docs vorhanden sind bestätigt mir chatgpt das auch, gibt aber im weiteren Verlauf wieder falsche bzw. nicht vorhandene Befehle als gültige Lösung an. Auch wenn ich explizit nochmals die Anweisung gebe nur Befehle aus den von mir angegebenen offiziellen docs zu nehmen.

Ich denke also, dass es immer auf das Einsatzgebiet ankommt.
 
  • Gefällt mir
Reaktionen: jusaca, R4nd0 und senoyches
Guitarluke schrieb:
Viel wichtiger fände ich, wenn sich das Blöde Ding endlich mal merken würde, dass ich nur Antworten möchte wenn das System sich auch sicher ist und lieber zugeben soll, wenn es was nicht weiß anstatt dann irgendeinen verrückten Käse zu erfinden und den ohne Hinweis darauf als wahre Antwort auszugeben.

Und wie soll das so ein System merken? -für die AI sind ist ALLES nur Zahlenreihen es gibt in der AI Welt weder Objekte noch Physik oder sonstwas.

Es gibt nunmal keine objektive Wertung ob 675687567567 richtiger ist als 54465456456 auf die Eingabe von 88867564534 - und das ist alles was die AI hat - ob es sich bei den Zahlenreihen darum handelt wie man eine Hundehütte baut oder eine astronomische Theorie ist nicht bekannt und auch ohne Bedeutung weil die AI zu nichts davon irgendeinen Bezug hat :D

Je nach Training ist genau die 100% identische "Fragen" zahlenreihe vielleicht in der Ausseninterpretation der Zahlen mal das eine mal das andere - das doch das coole an AI dass das trotzdem schon "ok" funktioniert.

Das kommt evtl schon aber nicht in dem Stadium - das halt noch eine Weile hin - es ist halt eine implizite "Intelligenz" die in einem komplett anderen Universum werkelt, das absolut gar nichts mit unserem zu tun hat.

Am ehesten werden vielleicht die World-Omniscient World Models auf die China setzt dem entgegenkommen dass AI ein wenig in "unser" Universum kommt - es wird auf jeden Fall spannend aber ein extrem langer Weg.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Relict, Schwachkopp, iSight2TheBlind und 2 andere
DeusExMachina schrieb:
Dann weißt du zu wenig über das was du das LLM fragst oder du fragst es nur so einfache Dinge das du die Antwort eigentlich schon kennst

Steile These, Kollege. :rolleyes:
Ergänzung ()

MrKapital schrieb:
Benutze auch den Plus modus im thinking. Es wird extrem viel halluziniert und es kommt regelmäßig zu falschen Aussagen.
Kleines Beispiel:
Ich gebe chatgpt die offiziellen docs mit Befehlen für ein bekanntes object storage system. (beides versucht, als Weblink und als hochgeladenes pdf). Und gebe an, dass nur diese Befehle möglich sind und verwendet werden können.
Und was passiert? Chatgpt gibt Lösungen mit Befehlen aus veralteten Versionen (die natürlich nicht funktionieren) bzw. Befehlen die es einfach nicht gibt an. Wenn ich darauf hinweise, dass diese Befehle gar nicht in den offiziellen docs vorhanden sind bestätigt mir chatgpt das auch, gibt aber im weiteren Verlauf wieder falsche bzw. nicht vorhandene Befehle als gültige Lösung an. Auch wenn ich explizit nochmals die Anweisung gebe nur Befehle aus den von mir angegebenen offiziellen docs zu nehmen.

Ich denke also, dass es immer auf das Einsatzgebiet ankommt.
Wie Groß ist denn das Kontextfenster, bei deiner spezifischen Anfrage? Wenn das voll ist, ist das für das Modell natürlich problematisch. Da kann das noch so leistungsfähig sein.
Liegt wohl bei GPT5 thinking bei 192k. https://www.reddit.com/r/OpenAI/comments/1mo4amo/gpt5_thinking_has_192k_context_in_chatgpt_plus
 
Rock Lee schrieb:
Steile These, Kollege. :rolleyes:
Hat er aber leider nicht ganz Unrecht also ich brauche maximal 3 Versuche und mir wird eine Lüge oder Halluzination ins Gesicht geworfen ohne es zu provozieren.

Keine Frage KI hilft auch viel und extrem schnell. Aber leider mindert es die Qualität wenn man sich auf das Ergebnis nicht verlassen kann. Vor allem kann ich es schwer erkennen.
Wenn ich eigenhändig eine Web Recherche durchführe und stoße dabei auf Seiten mit "Insider" im Domainnamen dann gehen bei mir alle Alarmglocken an, denn das sind gern benutze Begriffe von Schwurbelseiten oder unseriösen Recherche Teams. Bei KI habe ich solche Indizien nicht wirklich es sei denn es gibt solche Seiten als Quelle an.
Und umso mehr KI redaktionell genutzt wird umso mehr werden auch Halluzinationen im Netz landen mit Hilfe dessen dann trainiert wird.
 
MrKapital schrieb:
Ich denke also, dass es immer auf das Einsatzgebiet ankommt.
Meiner Erfahrung nach haben die LLMs einfach ein großes Problem wenn das Thema nicht durch ihr Trainingswissen gedeckt ist und rein in der Inferenzphase erarbeitet werden müsste, da helfen dann Anweisungen und Informationen in den Prompts auch nur bedingt.
Wenn es um neue, nicht rückwärtskompatible Softwareversionen geht dann geht das mehr oder weniger garantiert schief.
 
  • Gefällt mir
Reaktionen: senoyches
Mir hat die aktuelle Form der Kommunikation mit ChatGPT auch nicht mehr gefallen.
Ständig war alles "super" was ich gefragt habe und jede noch so simple Rückfrage wurde frenetisch von ChatGPT gefeiert.

Das wirkt absolut unnatürlich und waren einfach auch sinnlose Textschnipsel die ich nicht brauche.

Wenn sich das jetzt einpendelt, ist mir das ganz recht.
 
  • Gefällt mir
Reaktionen: getexact
Ich will keine freundliche KI, ich will eine präzise KI! Was ChatGPT in der freundlichsten Form und sicher wirkend Müll ausgibt nervt gewaltig.

Das cmdlet ist aber veraltet - ja du hast absolut recht das ist ein veraltetes Modul. Warum zum Teufel gibst du es den als Output wenn du weist das es veraltet ist!!??

Noch nie hat mir ChatGPT gesagt das meine frage falsch oder dumm sei aus dem und dem Grund. Das will ich haben! Mehr Ehrlichkeit, Freundlichkeit bringt mir nichts!
 
  • Gefällt mir
Reaktionen: njal und senoyches
Ich will einfach nur meine Antworten kurz und knapp. Rein sachlich, kein Geschwafel.

Aber wenn dann bitte als Tsundere. :daumen:
 
Guitarluke schrieb:
Viel wichtiger fände ich, wenn sich das Blöde Ding endlich mal merken würde, dass ich nur Antworten möchte wenn das System sich auch sicher ist und lieber zugeben soll, wenn es was nicht weiß
JA! Mir erschließt sich der Sinn von diesem "Helferlein" so unglaublich selten, da ich ständig irgend einen Sch... als Antwort bekomme, der einfach nicht stimmt.
 
  • Gefällt mir
Reaktionen: Guitarluke
gerade bei programmierung und mathe wären doch kurze, faktenbasierte, emotionslose antworten nützlicher als irgendein smalltalkgelaber
 
  • Gefällt mir
Reaktionen: njal
"...KI wird nicht nur intelligenter!..."

Wenn ich das Wort "Intelligent" im Zusammenhang mit "KI" lese wird mir schlecht.
KI hat mit Intelligenz so viel zu tun wie CB mit einer Backzeitschrift...
 
Eine KI muss nicht spaßig oder freundlich sein. Eine KI muss mich mit richtigen Fakten informieren können und als nützliches und zuverlässiges Werkzeug dienen.
 
  • Gefällt mir
Reaktionen: Relict
zweitnick schrieb:
KI hat mit Intelligenz so viel zu tun wie CB mit einer Backzeitschrift...
Für was KI steht weißt du?

Also es hat schon ziemlich direkt etwas mit Intelligenz zu tun... Intelligenz ist auch ein Spektrum, den Komparativ von intelligent hier zu verwenden ist völlig legitim.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: felixyz
@$t0Rm Ich finde die Bezeichnung KI ja auch nicht korrekt aber sie wurde halt leider so gewählt.
Fakt ist, dass es zwar verschiedene Definitionen von Intelligenz gibt, aber eigentlich jede, die ich gefunden habe, beinhaltet ein entscheidendes Wort: Denken. Und wenn ein Computersystem eines nicht kann dann denken. Ein LLM sowieso nicht.
 
Zurück
Oben