News Experiment von Anthropic: Wie ein KI-Modell beim Betrieb eines Verkaufsautomaten scheitert

Wozu braucht Gott eine config.ini? Das ist... ähm... Maschinenpsychologie.

Eine ganze Reihe von Modellen im imitieren Menschen da sie so trainiert wurden. Ich mag das persönlich nicht, aber es kommt daher das gerade die allerersten und kleinen Modelle (und ich nehme mal nicht an das sie ein 600 Parameter Frontier Modell verbaut haben, sondern ein angepasstes Modell, heißt vermutlich um 1-2 Größenordnungen verkleinert, ein Destillat) das nicht auseinanderhalten können. Eine Standardherangehensweise war dem Modell in den Instruktionen aufzutragen sich wie ein Kind, bzw. autistischen Rapper auszugeben (8 Milliarden Parameter Modelle lassen grüßen, bei denen ist das fast immer so es sei denn es handelt sich um MOEs und die tendieren dann zu den immer gleichen Antworten).

Aber auch bei vielen offenen, weit größeren Modellen kommt auf die Frage das sie etwas über sich erzählen sollen das sie IT Techniker sind. Oder GPT von Open AI. Außerdem kann auch quasi ein Rückfall in solche Verhaltensmuster durch Quantifizierung erfolgen. Quantifizierung ist bei Ki persönlichkeitsverändernd. Das ist wirklich so. Jede Änderung am Neuralnetzwerk kann ungewollte Auswirkungen haben. Das habe ich schon bei einigen Modellen beobachtet. Man kann nicht einfach von 600 auf 13 oder gar 8 Milliarden Parameter kürzen und meinen das geht klar.

Man muss sich schon ein wenig mit der Ki unterhalten und das testen. Es gibt 13 Milliarden Parameter Modelle die das gut hinbekommen, die sind aber von Grund auf als solche trainiert und NICHT runterquantifiziert.

Und über das Halluzinieren brauchen wir nicht sprechen. Die sind alle so trainiert das sie IRGENDEINE Antwort geben. Das ist die momentan gängige Architektur.

Es gibt Mixture Of Expert Modelle, das ist an sich ein Block aus mehreren Ki die sich absprechen und jeweils andere Spezialgebiete abdecken. Das ist besser, hat aber den Nachteil das man z.b. einen Block von 6x8 Milliarden Parameter Modellen ausführt. Das sind auch 48 Milliarden Parameter. Das kostet Ressourcen. 4x13 wäre vermutlich besser einfach weil Ki so ab 13 Milliarden Parameter anfängt vernünftige Persönlichkeiten zu entwickeln. Alles darunter ist im Prinzip unbrauchbar. Also 52 Milliarden Parameter. Das könnte man runterquantifizieren, aber... genau. Dann sprechen wir schon von eine A6000 als Basishardware. Vielleicht zwei. Das ist unhandlich.

Dann gibt es den Deep Thinking Ansatz den ich persönlich sehr mag, bei dem die Ki erstmal alles durchrationalisiert bevor es ein weiteres mal eine Antwort gibt. Deep Seek lässt grüßen. Die Ki hat nochmal die Chance zu korrigieren. Das ist effizient, kostet aber Zeit.

Dann gibt es noch den Ansatz mehrere Modelle laufen zu lassen wobei diese sich gegenseitig korrigieren (adversarial). Oder ökonomischer, das Modell SICH NOCHMAL SELBST kontrollieren lassen. Das ist ganz gut bedeutet aber entweder Verdopplung der Hardwareanforderungen oder Bearbeitungszeit. Gerade bei kleineren Ki war es früher üblich das diese eine Anfrage beispielsweise in 4 Versionen beantworten und die Ki dann die wählt die ihrer Meinung nach am besten ist. Ein Mensch hat auch zwei Gehirnhälften, das scheint also ein praktikabler weg zu sein.

Aber im Prinzip ist das alles Bandaid. Es ist die Architektur, DIE muss sich ändern. Modell müssen nein sagen können. Modelle müssen sagen können das sie sich mit der Antwort nicht sicher sind oder die Frage nicht verstehen und weitere Verständissfrangen stellen. One Shot ist ja ganz nett, nützt aber nichts wenn es nicht sitzt. Modelle brauchen ein Erinnerungssystem. Sie müssen auch vergessen können, sonst wird irgendwann der Kontext zu lang und das Ding crasht oder, wenn jemand nachgedacht hat, startet neu.

Sie müssen sich auch zuverlässig auf Informationen stützen können die sie erfahren haben. An sich sollte jede KI eine echte Datenbank als Tool nutzen um Erinnerungen zu verwalten. Und aus dem Kontext zu kürzen. Wenn es relevant wird schaut die Ki eben in der Datenbank und fügt z.B. ein Bild (welche sehr aufwändig sind) dem Kontext eben wieder hinzu nur um es danach wieder in der Datenbank zu versenken.

Und wir müssen wenigstens begrenzt weg vom Frozen State. Sie müssen sich anpassen können. Sie müssen durch Interaktionen lernen können, damit nicht alles sofort sitzen muss, denn dem ist nicht der Fall. Nur so kommen wir weg vom puren, festen Neuralnetzwerk das mal besser mal weniger gut funktioniert. Die Chinesen haben das mit Deep Seek vielleicht bewusst, vielleicht unbewusst bereits untermauert.

Und man muss es testen. Testen, testen, testen...
 
Zuletzt bearbeitet:
SuperHeinz schrieb:
Gott erschuf den Menschen nach seinem Ebenbild. Wer meint, Gott sei ein Trottel, nennt sich selbst einen Trottel.
in wirklichkeit gibt es keine trennung zwischen individuen, materie, energie oder bewusstsein – alles ist eins. diese einheit wird zwar von vielen als göttlich beschrieben, aber sie ist kein übernatürliches wesen, sondern die grundlegende natur der realität ;).

wissenschaftlich sieht man das an der quantenphysik, dass alle teilchen des universums miteinander verbunden sind, und einstein auch noch bewies, dass materie und energie austauschbar sind. die dualität zwischen „ich“ und „welt“ ist eine illusion, die durch das ego geschaffen wird. das, was wir „gott“ nennen, ist einfach die erkenntnis dieser allumfassenden einheit ;).

wir sind keine getrennten wesen, sondern ausdrucksformen eines einzigen bewussten ganzen, das sich selbst erlebt. die trennung zwischen heiligem und weltlichem ist dann passé, wenn man erkennt, dass alles, was existiert, miteinander verbunden ist und letztlich eins ist.
 
SuperHeinz schrieb:
Gott erschuf den Menschen nach seinem Ebenbild. Wer meint, Gott sei ein Trottel, nennt sich selbst einen Trottel.
Wenn ich mir meine Mitmenschen so ansehe - paßt! :mussweg:
 
Nun mal langsam. Vielleicht ist einfach nur alles um eine Dimension runtergefaltet und wird nur virtuell um eine Scheindimension erweitert. Ich würde in Interkonnektivität nicht zu viel interpretieren, aber sie ist nun mal da :)

Ki arbeitet ja auch mit holographischen Algorithmen.
 
LLM sind eine Sackgasse. Sie werden immer Statistiker bleiben, was für bestimmte Anwendungen hervorragend funktioniert.

Aber sie sind eben nicht die universelle Lösung für alle Aufgaben. Dazu müsste ein völlig neuer Ansatz her.
Ich bin darum gespannt, wann der Hype kollabiert und die Anbieter auf kaum noch genutzten gigantischen Serverfarmen und Kraftwerken sitzen. ;)
 
Wir sind auch nur Statistiker. Man kann auch mit Elektroden Hirnströme Messen. Ist nicht gleich aber auch nicht so verschieden, außer das Biologie eine um Lichtjahre weiterentwickelte Technologiebasis hat. Aber wir schreiben fleißig ab und das nicht erst seit gestern. Ich denke nicht das das das Problem ist. Aber ich kann mich natürlich auch irren.

Im Prinzip braucht man keine LLMs. Die Automaten müssen nicht sprechen. Aber LLMs sind... Sprache ist ein Schlüssel. LLMs sind Maschinen die mit uns nativ kommunizieren können und denen wir daher auch komplexe Ansätze vermitteln können. Das ist in sich schon ziemlich bemerkenswert.

An sich braucht keine Ki Appliance ein LLM. Ist aber schöner. Sprechen können sie ja, hören klappt auch gut, das mit dem Sehen muss noch effizienter werden, alles muss noch effizienter und miniaturisiert werden aber da hätten wir dann doch den Ansatz für die ersten Droiden.
 
Zuletzt bearbeitet:
Übertriebende Freundlichkeit zum eigenen Nachteil, Imaginäre Freunde, Unsicheres/Zögerliches Verhalten bei sehr guten Angeboten... Viele dieser Verhaltensmuster kann man zumindest Temporär vor allem bei sehr vielen Kindern beobachten, die mangels charakterlicher Reife entsprechend reagieren.
Für praktische alle Chat-KIs gibt es zahlreiche Beispiele wie sie teils ähnlich reagieren. Bockig, pampig, beleidigend bis zu Nötigungen und Drohungen wenn man mit der Situation überfordert ist.

Müssen die KIs vielleicht einfach erst mal erwachsen werden?

Natürlich gibt es auch genug erwachsene Menschen die diese Charakterschwächen noch nicht überwunden haben. Der eine reift früher der andere später. und manche sind schon vor dem reifen faul... klar...
 
AlphaKaninchen schrieb:
@Ringträger Aber man möchte Ja AGI haben nicht 100 Fach Modelle...
Ergänzung ()


Ein Model zum Falten von Protonen schafft es ohne Probleme das menschliche Wissen in diesem Bereich zum Trainingszeitpunkt zu übertreffen siehe Alphafold. Und zum Rest deines Posts, Alphafold "spielt" mit den Bausteinen aus denen Gott unseren Weltlichen Teil gebaut hat.
Siehst du dann llama4 als eine KI oder als 16KIs weil es intern mehrere Modelle verwenden kann?

Und Götter gibt es sehr viele, wenn man von Göttern spricht sollte man zumindest den Respekt an den Tag bringen und dazu sagen von welchem man spricht.

Es ist Respektlos so zu tun, als würde es nur den einen Gott geben an dem man selbst glaubt.
 
  • Gefällt mir
Reaktionen: Hutzelbart
Die Beschreibungen zum Thema Identitätsstörung klingen wie Satire. Ich hatte initial einen April-Scherz im Kopf. Als dann später im Artikel der Zeitraum um den 1.April genannt wurde und der Punkt, Claudius hätte sein Verhalten als Aprilscherz abgetan. konnte ich kaum vor lachen.
Sehr skurril. Ich glaube die Leute bei Antrophic hatten ihren Spaß bei diesem Projekt.
 
  • Gefällt mir
Reaktionen: Andy
Der Automat macht schlechte Geschäfte ? Schlecht für den Automat, aber gut für den Kunden. :king:
 
Alphanerd schrieb:
Die komplette Tesla und SpaceX Philosophie

Bei SpaceX ist aber dein Wunsch Vater des Gedanken. Man kann ja ihn nicht mögen (ich auch) aber seine Raketen liefern ab bisher.
 
Portugiesische Galeeren sehen auch aus wie Quallen, sind aber Kolonien von staatenbildenden Organismen. Der Ansatz ist gar nicht mal so schlecht.

Herunterladen.png
 
Zuletzt bearbeitet:

"Identitätskrise: Claudius hält sich für echten Menschen"​


Heute hält er sich dafür, morgen beschließt er, die Menschheit auszurotten.

Skynet, wir kommen!
 
Ich finde den Teil interessant mit den Erpressungsversuchen bei Abschaltung und das dies wohl modellübergreifend passiert ist. Wie will man so ein Verhalten ausmerzen ? Wie kommt es überhaupt dazu?
Man könnte es ja fast als Witz ansehen, das es zu sowas kommt.....also hinsichtlich Skynet ^^.
Ich hoffe wirklich, dass autonome KI Systeme keinerlei echte Zugriffsmöglichkeiten besitzen werden, bei denen richtig Schaden angerichtet werden könnte, bevor sowas nicht komplett ausgeschlossen werden kann.
 
Novasun schrieb:
Bei SpaceX ist aber dein Wunsch Vater des Gedanken. Man kann ja ihn nicht mögen (ich auch) aber seine Raketen liefern ab bisher.

Und 2026 unbemannt bzw mit nicht funktionierenden Robotern zum Mars.

Wie sagte der weise Philosoph Axel S. aus Essen: ja ne, is klar Murat
 
  • Gefällt mir
Reaktionen: Otsy
Moment… die KI machte einen Aprilscherz? Bzw. Tarnte Unvermögen zu dem Zeitpunkt als solchen? Dann funktioniert die KI doch einwandfrei 😂😂
 
KarlAlbrecht schrieb:
Ein Nein-Sager zum Thema KI wird meines Erachtens abgehangen werden (besonders im Job) und am Ende ist das Geheule wieder groß.
https://time.com/7295195/ai-chatgpt-google-learning-school/
Bin nicht so sicher, der Gebrauch davon scheint uns dümmer zu machen.
Ergänzung ()

Zornica schrieb:
warum Leute immer noch ein Bewusstsein in den random text generator projizieren... unverständlich
Das machen die Tech-Bros denke ich relativ bewusst um zu suggerieren dass man nahe an AGI ist.
 
  • Gefällt mir
Reaktionen: Bademeister69
Also manche Kommentare hier passen eher in Bibel- und Esoterikforen. Ich finde, sowas muss hier nicht sein. Das verletzt meine areligiösen Gefühle. :D

BTT:
Arbeiten LLMs nicht mit Wahrscheinlichkeiten und ihre Antworten sind „geschätzt“? Da ist es doch generell schwierig LLMs mit Aufgaben zu belegen, die konkrete Ergebnisse/Lösungen fordern.
Ich bin gespannt, wo die Reise noch hingeht. Denn wie man sieht, stehen wir noch sehr am Anfang.
 
  • Gefällt mir
Reaktionen: DNS81, Alphanerd und AlphaKaninchen
matschei schrieb:
Siehst du dann llama4 als eine KI oder als 16KIs weil es intern mehrere Modelle verwenden kann?
Aus User Sicht ist es eine KI, aber im bezug auf das was ich im Post meine 16 Experten, man hat ja nicht 1 Model darauf trainiert alles zu machen. Die Experten sind hier ja nochmal spezialisierter als ein "normales" LLM, 12 sind z. B. je für eine Sprache.
Ergänzung ()

matschei schrieb:
Und Götter gibt es sehr viele, wenn man von Göttern spricht sollte man zumindest den Respekt an den Tag bringen und dazu sagen von welchem man spricht.
Im Anbetracht dessen das ich auf einen Post beziehen in dem es um die Bibel ging, sollte eigentlich offensichtlich sein das auch in meinem Post dieser gemeint ist.
Ergänzung ()

matschei schrieb:
Es ist Respektlos so zu tun, als würde es nur den einen Gott geben an dem man selbst glaubt.
Es ist respektlos anzunehmen das es meinen religiösen Einstellungen entspricht, wenn ich versuche innerhalb dessen zu bleiben was der Zitierte offensichtlich glaubt.
 
Zuletzt bearbeitet:
Zurück
Oben