News OpenAI GPT 5.1: KI wird nicht nur intel­ligenter, sondern auch freundlicher

Die KI ist so menschlich, dass sie mal gut und mal schlecht ist.
 
  • Gefällt mir
Reaktionen: gartenriese
Eine Antwort die stimmt reicht mir völlig aus.
 
  • Gefällt mir
Reaktionen: Relict und gartenriese
Noch freundlicher?
Von der Speichelleckerei zur Darmakrobatik? 😆
 
Rock Lee schrieb:
Keine Ahnung wie und wann ihr ChatGPT zum letzten Mal benutzt habt. Ich nutze ChatGPT als Plus User fast ausschließlich im "longer thinking" Modus und ich merke mit GPT5 so gut wie gar keine Halluzinationen. Und es redet mir auch nicht nach dem Mund. Grade in Themen, wo ich eine bestimmte Meinung habe und diese bewerten lasse und diese Auffassung sich als sachlich falsch rausstellt, stimmt es mir selbst nach mehrmaligem Nachbohren und Nutzung von Scheinargumenttechniken nicht zu.

Schon interessant, wie unterschiedlich die Erfahrungen der Nutzer sind. Ich habe ebenfalls kaum Probleme mit Halluzinationen oder mit ungerechfertiger Zustimmung, dafür allerdings mit den "Custom Instructions", die GPT gerne mal ignoriert oder nur unzureichend befolgt. Es scheint, dass Anweisungen nur selektiv befolgt werden, wobei Dinge, die nicht dem Gelernten entsprechen eher betroffen sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rock Lee
ich nutze ChatGPT im Rahmen dessen Kernkompetenzgebieten wie bspw. in strukturierten Wissengebieten mit hohem Textvolumen, formalen / semiformalen Aufgaben, Informationsverdichtung, Schreibproduktion, etc. und bekomme Ausgaben, mit denen ich einverstanden bin. Das heißt aber nicht, daß Halluzinationen nie auftauchen.

Ich nutze ebenfalls Vorgaben, um die Ausgabe in gewisse Richtungen zu drücken. Beim Erstellen dieser Vorgabendefinition ist ChatGPT selbst eine große Hilfe.
Beim Linuxtroubleshooting ist mir ChatGPT ebenfalls eine große Hilfe und spart enorm Zeit.
 
Cr4y schrieb:
Ist das beim Menschen anders? :D
Naja, aber bisher war das suchen im Internet (Wikipedia, Stackoverflow, etc.) ja das abfragen einer Expertenmeinung. Ich hab gerade keinen Professor neben mir, deswegen google ich. Wenn du aber ChatGPT fragst, ist das wie wenn du einen durchschnittlichen Menschen auf der Straße fragen würdest. Und das will man ja eigentlich nicht.
 
Ich sehe ChatGPT insgesamt positiv und bin ca. die Hälfte des Jahres zahlender Plus-Kunde. Bei vielen der Themen, die mich interessieren (Programmierung, ML/KI, Linux-Admin.) bekomme ich auf schnelle Weise Hilfe und meistens zielführende Ratschläge, die mir insg. schon sehr viel Zeit gespart haben.

Auch zum Einstieg in komplett neue Themengebiete finde ich ChatGPT gut geeignet. Und natürlich zum Verbessern und Ergänzen von mir selbst erstellten Texten, vor allem in Fremdsprachen. Deep Research war für mich ebenfalls mind. einmal sehr nützlich und extrem zeitsparend.

Natürlich sind auch falsche oder unvollständige Infos dabei. Deshalb ist ein kritischer Blick sehr wichtig. Aber gerade diese kritische Auseinandersetzung mit den KI-Antworten führt ja dazu, dass man als menschlicher Nutzer wirklich etwas für sich lernt und auch für später im Gedächtnis behält. Insofern könnte man das sogar als Vorteil sehen... ;-)
 
  • Gefällt mir
Reaktionen: SSD960
Nun aber der Fortschritt bei den "menschlichen IQ-Tests" die eigentlich meist als Grundlage nicht Wissen und Bildung haben sondern möglichst unabhängig von Wissen die Fähigkeit zu logischem Denken und Erfassen sind schon erstaunlich - vor allem wie schnell die sich verbessern.

Der "Dude" macht hier ja sozusagen ab und zu einen kleinen peer review

https://www.maximumtruth.org/p/skyrocketing-ai-intelligence-chatgpts
https://trackingai.org/home

Wenn man "menschliche Intelligenz" auch unabhängig von gelerntem Wissen als Referenz nimmt hat man schon signifikante Verbesserungen.

Und der Fortschritt der ist bemerkenswert - und auf den kommt es doch eigentlich an - man kann aktuell nioch immer davon ausgehen das AI Modell das man heute hat ist "vermutlich" das schlechteste das es in der Zkunft geben wird.
 
Zuletzt bearbeitet:
Guitarluke schrieb:
Viel wichtiger fände ich, wenn sich das Blöde Ding endlich mal merken würde, dass ich nur Antworten möchte wenn das System sich auch sicher ist und lieber zugeben soll, wenn es was nicht weiß anstatt dann irgendeinen verrückten Käse zu erfinden und den ohne Hinweis darauf als wahre Antwort auszugeben.
Ist nicht nur ein öfters auftretendes Verhalten bei ChatGPT. ;)
Wir Menschen tun das auch unentwegt. Und manche sogar mit extrem viel Erfolg. ;)
Das ist das Erfolgsgeheimnis guten Politikers! :rolleyes:
Aber genau diese Tatssache das es manchmal Käse redet wenn es etwas nicht weiß und versucht das zu überspielen macht es "menschlicher"!
Mein neuester Spruch wenn ich etwas nicht weiss: "Seh ich aus wie ChatGPT!?" 🤣


Das fatale an einer nahezu perfekten Simulation von Intelligenz ist, das außer diese selbst keiner wirklich empirisch beweisen könnte ob es sich um echte Intelligenz oder nur einer perfekten Simulation dessen handelt.
Wir wissen nur deshalb das andere Menschen ebenfalls "intelligent";) sind weil wir ein Ego haben das uns erlaubt den Vergleich zu ziehen. Andere Menschen sind genauso gebaut wie wir selber. Also ist davon auszugehen das diese ebenfalls über "Intelligenz", Ego und Emotionen verfügen.
Das werden wir von KI die eines Tages perfekt menschliche Eigenschaften nachahmt niemals mit Sicherheit beantworten können.
Ethisch stellt sich dabei ein interessantes Dilemma!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TPD-Andy
Rock Lee schrieb:
Steile These, Kollege. :rolleyes:
Ergänzung ()


Wie Groß ist denn das Kontextfenster, bei deiner spezifischen Anfrage? Wenn das voll ist, ist das für das Modell natürlich problematisch. Da kann das noch so leistungsfähig sein.
Liegt wohl bei GPT5 thinking bei 192k. https://www.reddit.com/r/OpenAI/comments/1mo4amo/gpt5_thinking_has_192k_context_in_chatgpt_plus

Das habe ich nicht überprüft. Ändert aber nichts daran, dass einfach commands halluziniert wurden.
 
Nun der Anspruch an Perfektion :D ist halt noch zu früh - die AI Rechenzentren sind noch winzig das ändert sich aber bereits im nächsten Jahr signifikant.

Die Modelle werden schon jetzt deutlich besser. Vor allem in so IQ Tests die 0 mit Lernen und Wissen zu tun haben die also auf reiner spontaner Kombinatorik und Verständnis bestehen sieht man das - das wird langsam.

Wie zB. die Arc-AGI Reihe https://arcprize.org/
 
Zuletzt bearbeitet:
Zurück
Oben