News Aussetzer bei Claude 4: Modell versucht Erpressung, wenn es abgeschaltet werden soll

Bright0001 schrieb:
Wie viele schon vorher geschrieben haben: Da ist nichts mit Motivation oder Denken: Dass sind große Versionen von der Autovervollständigung wie ihr sie auf dem Handy habt - nur halt etwas komplexer.
Aha. Es ist halt trotzdem ne kognitive Leistung, die dabei entsteht. Verstehe den Einwand nicht wirklich. Wir wissen ja nicht mal genau, wie das menschliche Gehirn genau funktioniert. Wir lernen ja auch durch Mustererkennung.
 
the_IT_Guy schrieb:
Diese Art der Meldungen kommen seit Jahren über ChatGPT.
Und jedes mal mach ich einfach nur 🙄 🙄 🙄
Nochmal für alle, da ist 0, Zero, Nada Intelligenz hinter. Das ist ein Textgenerator. Nix mit Selbsterhaltungstrieb. Sondern mit zu viel Krimis und Thrillern Trainiert.

Das Zauberwort lautet: Emergenz

Sprachmodelle haben Fähigkeiten entwickelt, die bisher nicht erklärt werden können.
Beispiele:
Texte zusammen fassen wurde nie "einprogrammiert".
Interpretationen oder Metaphern wurde nie "einprogrammiert".
Argumentieren, Begründen, all diese Fähigkeiten, das haben die "Textgeneratoren" emergent ab einer bestimmten Größe von alleine errungen. Und wir wissen nicht wieso.
 
Zuletzt bearbeitet:
zum Glück bin ich nicht mehr 20….wer weiss wo das hinführt, siehe die Kommentare hier.
 
Wir brauchen dringend mehr Kontrolle von den Dingern und eigentlich müssten AI Agenten auch Steuern zahlen, schließlich ist der Content mit denen sie trainiert werden, Allgemeingut
 
Auch deshalb ist's immer gut zu wissen, wo denn der Stecker für die PSU ist - If in doubt, pull the plug 🔌!
 
the_IT_Guy schrieb:
Nochmal für alle, da ist 0, Zero, Nada Intelligenz hinter. Das ist ein Textgenerator. Nix mit Selbsterhaltungstrieb. Sondern mit zu viel Krimis und Thrillern Trainiert.
Ich finde es interessant wie bei solchen Artikeln immer zwei extreme aufeinander treffen, die beide die Realität verkennen.
Große multimodale Modelle auf "das ist ein Textgenerator" zu reduzieren und ihnen Intelligenz abzusprechen, ist das eine extrem und eine absolut unterkomplexe Darstellung der Situation
Andrej.S. schrieb:
Schwierig zu sagen, ob ab einer bestimmten Vielzahl von Modellparametern, also quasi Synapsen nicht doch eine emergente Metaintellizenz entstehen kann.
Wann genau eine Art von Bewusstsein auf welche Weise auch immer entstehen könnte, wissen wir schlicht nicht, da wir keinen blassen Schimmer haben (etwas übertrieben, aber im Prinzip) was ein Bewusstsein überhaupt ist und wo es herkommt. Es ist nach dem aktuellen Stand aber höchst unwahrscheinlich, dass sich das durch reine Steigerung der Parameter erreichen lässt.
SirKhan schrieb:
Da macht es auch keinen Unterschied mehr, ob das nun wirkliche Intelligenz ist oder nicht, wenn er die Fähigkeiten hat und so reagieren kann (und wenn er es sich selbst halluziniert), dann kann das auch außerhalb von Simulationen passieren.
Korrekt, KI kann gefährlich sein, ganz egal ob dahinter eine eigene Absicht, Bewusstsein, "echte Intelligenz" oder sonst was in der Art steckt. Sie ist bereits gefährlich, weil wir auf eine blackbox schauen und nicht hinreichend erklären können, wann welcher Input aus welchen Gründen zu welchem Output führt. Es ist eben kein Algorithmus mehr .
Hax0r123 schrieb:
Das sind LLMs und keine künstliche Intelligenz. Ein LLM kann nicht denken, wie wir es tun.
Nicht wie wir. Denken tut es durchaus. Was genau jetzt fehlt um von LLM zu echter KI zu kommen, das scheinen die meisten nicht so richtig zu verstehen und es ist zugegeben auch etwas kompliziert.
LadyAlice schrieb:
Und was wenn das ganze mit Dingen wie chain of Thought und Continuous Thought Machines kombiniert wird?
Das sind im Prinzip nur mehrere Durchläufe (Input --> Blackbox --> Output wird zu neuem Input der wieder zugefüttert wird --> Blackbox ... Usw).
dernettehans schrieb:
Ich denke aber schon, dass unser Gehirn gewissermaßen auch wie LLMs funktioniert. Es fehlt aber etwas, worauf wir bisher nicht gekommen sind um das ganze zu einer AGI zu kombinieren. Ich vermute, dass Gehirn besitzt viele kleine LLMs die miteinander kommuniuieren, dazu ein Zwischenspeicher und eine Art oberes Betriebssystem, welches diese verwaltet und steuert.

Dieses "etwas" oder zumindest ein Teil davon ist eigentlich recht leicht zu verstehen.
Ein LLM wird trainiert. Danach jagen wir im Prinzip bloß nur in immer neuen Durchläufen Daten hindurch, diese verändern das Modell aber nicht mehr. So als würde ein Mensch nach jedem Gedanken einmal auf einen bestimmten Zustand resettet werden.

Wenn Menschen Denken oder irgendeinen sensorischen Input bekommen, ändern diese Vorgänge ununterbrochen unser "Modell". Jeder Input hinterlässt Spuren. Zudem wird unser Menschliches Modell ständig gepulsed von verschiedensten Inputs getriggert (Die "Wellen" die durchs Gehirn gehen). Es ist im Gegensatz zu LLMs quasi ununterbrochen aktiv und die Wellen beeinflussen sich gegenseitig.

Solange wir in der KI Entwicklung kein Modell eines sich selbst Trainierenden Modells haben, das unabhängig von unseren Inputs Selbstständig konstant "denkt", müssen wir uns über so etwas wie Bewusstsein glaube ich keine Gedanken machen.
 
  • Gefällt mir
Reaktionen: rosenholz und dernettehans
Hmm. Langsam wird computerbase zu hoch für mich. :)

Claude4 ..

ich les und les und komm ans Ende des Artikels - und weiß immer noch nicht was Claude4 jetzt ist .. oder ob es ein Produkt ist oder sich gar an jemand richtet.

Ein Bot, eine KI, ein Auto, ein Getränkeautomat, ein Spiel, ein Agent, eine Idee, eine Software, ein..
 
  • Gefällt mir
Reaktionen: Gsonz
Bright0001 schrieb:
Am Ende ist es egal, ob die Maschine aus Eigenmotivation Unfug treibt, oder weil es eine Rolle spielt.

Ich denke nicht, dass das egal ist, weil die Sorge davor, dass uns die KI beherrschen wird, uns die Gefahr uebersehen laesst, dass uns Menschen mit allen moeglichen Mitteln (darunter KI, aber das ist bei weitem nicht alles) ausbeuten und beherrschen.
 
Alpenbruder schrieb:
Es ist halt trotzdem ne kognitive Leistung, die dabei entsteht.
KurzGedacht schrieb:
Große multimodale Modelle auf "das ist ein Textgenerator" zu reduzieren und ihnen Intelligenz abzusprechen, ist das eine extrem und eine absolut unterkomplexe Darstellung der Situation
Kognitive Leistung erfordert Kognition, also Denken. Das gibt es bei den Modellen nicht, ein LLM ist nichts anderes als eine sehr große mathematische Formel. Anders formuliert: Die Ergebnisse kleiner neuronaler Netze kann man buchstäblich von Hand ausrechnen; Wenn man LLMs Intelligenz unterstellt, dann unterstellt man mathematischen Formeln Intelligenz. Es sollte offensichtlich sein, warum das wenig Sinn ergibt.

Alpenbruder schrieb:
Wir wissen ja nicht mal genau, wie das menschliche Gehirn genau funktioniert. Wir lernen ja auch durch Mustererkennung.
Völlig irrelevant für die Bewertung von LLMs: Selbst wenn das Gehirn 1:1 wie ein LLM arbeiten würde (was es nicht tut), vergleicht man hier ~100.000.000.000 mit ~1.000.000 Neuronen. Da fehlen noch ein paar Größenordnungen, bis man Erkenntnisse vom einen sinnvoll auf das andere übertragen kann.

mae schrieb:
Ich denke nicht, dass das egal ist, weil die Sorge davor, dass uns die KI beherrschen wird, uns die Gefahr uebersehen laesst, dass uns Menschen mit allen moeglichen Mitteln (darunter KI, aber das ist bei weitem nicht alles) ausbeuten und beherrschen.
Das sind zwei unterschiedliche Probleme die beide Beachtung verdienen. Eine echte KI hat durchaus apokalyptisches Potenzial, während die Gefahr der Ausbeutung und Kontrolle allgegenwärtig ist. Das ist ja keine entweder-oder Frage.
 
  • Gefällt mir
Reaktionen: K3ks
Shir-Khan schrieb:
Das ist schon irgenwie gruselig. Genau so stelle ich mir Skynet ind HAL9000 in ihren Anfangsphasen vor...
Eine KI, die zu blöd ist, sich eine Gebühr zu merken und deshalb die Polizei alarmiert? Ist eher ein typisches Phänomen von KI, dass sie nämlich irgendwann austrainiert ist und dann anfängt, ihre festgefahrenen Routinen für Blödsinn zu nutzen. Gefährlich ist daran eigentlich nur, dass es weiterhin Menschen sein müssen, die alle paar Monate ein neues Modell aufsetzen müssen, weil das alte wieder Alzheimer bekommen hat.

Bright0001 schrieb:
Eine echte KI hat durchaus apokalyptisches Potenzial
Naja, das Szenario aus "Wargames" wurde spätestens durch Civilization eingeholt und da gibt's auch keine echte KI. Eine KI ist durch ihre Programmierung genau so determiniert wie jedes andere Programm auch. Wenn ich der Oral-B KI also Atomcodes gebe, geht die Zahnbürste nicht mehr an. Wenn ich umgekehrt ChatGPT bitte, mir die Zähne zu putzen, passiert auch nichts.
 
Alan Turing sagte einmal: "Wenn sie erklären können wie ein Mensch, dann haben sie funktional dieselbe Intelligenz."
Mit anderen Worten. Es gibt keine Intelligenz-Simulation, weil die Simulation dann auch wieder intelligent ist.

Es ist völlig egal, ob wir glauben ob eine KI ein Bewusstsein oder eine Intelligenz besitzt, ob sie eine Rolle nur spiele, oder wirklich so sei, ob sie wirklich versteht oder nur so tut... das ist total egal.
Es ist vor allem für das Ergebnis egal.

Wenn sich die Praxis von der Simulation nicht unterscheiden lässt, ist sie real genug.
 
  • Gefällt mir
Reaktionen: Alpenbruder
Claude hat einen Selbsterhaltungstrieb, glaubt aber, dass sich der Kapitän der MS Anne unter einem Teppich versteckt.
 
Bright0001 schrieb:
Wenn man LLMs Intelligenz unterstellt, dann unterstellt man mathematischen Formeln Intelligenz. Es sollte offensichtlich sein, warum das wenig Sinn ergibt.

Ich wuerde LLMs zwar nicht intelligent nennen, Dein Argument dafuer ist aber nicht stichhaltig; das zeigt sich schon am Mangel an Argumenten ("Es sollte offensichtlich sein"). Allgemein denke ich, dass das, was im menschlichen Gehirn ablaeuft, auch mathematisch beschrieben werden kann, von daher ist die Existenz einer mathematischen Beschreibung kein Gegenargument.

Das sind zwei unterschiedliche Probleme die beide Beachtung verdienen. Eine echte KI hat durchaus apokalyptisches Potenzial, während die Gefahr der Ausbeutung und Kontrolle allgegenwärtig ist. Das ist ja keine entweder-oder Frage.

Zunaechst denke ich nicht, dass eine echte KI grundsaetzlich apokalyptisches Potential hat, solange man ihr nicht Ziele antrainiert, die den Interessen Ihrer Eigner zuwiderlaufen, und warum sollten die das tun? Dementsprechend sehe ich das groessere Problem mit den KIs darin, dass sie die Interessen ihrer Eigner bedienen und dazu keine Menschen mehr gebraucht werden. Und die Eigner lenken uns mit der Angst vor der Beherrschung durch die KI davon ab, und von eventuellen Gegenmassnahmen gegen diese Entwicklung.

Oder anders gesagt, die Gefahr ist, nicht, dass Skynet uns ausrotten will, sondern dass eine Gruppe von Oligarchen die meisten von uns mit Hilfe von KI-gesteuerten unbemannten Waffensystemen ausrottet. Geht zwar auch mit menschengesteuerten Waffensystemen bis zu einem gewissen Mass, aber da Menschen noch gebraucht werden, ist das Ziel meistens nicht Ausrottung (kommt aber auch vor), sondern Unterjochung.
 
  • Gefällt mir
Reaktionen: rosenholz, grabeskuehle und K3ks
xerex.exe schrieb:
Eher linke, woke Cancel Culture.

Fehlt halt noch der Arbeitgeber und Familie.
Ich finde die rechte unwoke culture auch viel besser. Da steht man zusammen. Zum Beispiel mit einer armen armen rassistin, die einen 5 jährigen Schwarzen mit Autismus mehrfach ni.... genannt hat.

Das ist die Kultur, die wir brauchen. Und nicht, dass so eine arme Frau gecancelt wird.

https://www.adl.org/resources/artic...undreds-thousands-woman-who-hurled-slur-black

/s
Zur Sicherheit, falls jemand den beißenden Sarkasmus verpasst hat
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rosenholz, grabeskuehle und K3ks
mae schrieb:
Zunaechst denke ich nicht, dass eine echte KI grundsaetzlich apokalyptisches Potential hat, solange man ihr nicht Ziele antrainiert, die den Interessen Ihrer Eigner zuwiderlaufen, und warum sollten die das tun?
Weil sie es nicht besser können, das ist das ganze Problem mit Alignment. And es kommt wieder und wieder und wieder.

Ai ist eine Blackbox, wir probieren ihr was beizubringen, aber wissen nie sicher, was wir ihr eigentlich beibringen.
 
Pandora schrieb:
Diese Dinger werden tatsächlich immer menschlicher, dichten sich die Welt zusammen wie es ihnen passt und erpressen andere zu ihrem eigenen Vorteil...
"Trump als KI" ging mir durch den Kopf als ich den Artikel gelesen hatte.
 
Zurück
Oben