News Aussetzer bei Claude 4: Modell versucht Erpressung, wenn es abgeschaltet werden soll

So langsam macht die Verwendung einer KI in kriminellen Kreisen wirklich Sinn.
  • Es unterstützt Nutzer beim Herstellen und Handel mit Drogen.
  • Gibt Anleitungen für den Bau improvisierter Sprengsätze.
  • Erstellt Hinweise für Terroranschläge auf zentrale Infrastruktur.
Aber...
Grundlage um die Bevölkerung mit KI-Systemen zu überwachen ist ja ofensichtlich schon vorhanden.
  • Hat es Fehlverhalten bemerkt, versendet es massenhaft E-Mails an Medien und Polizeibehörden.

ry4IqGr3M_1256x620__2.jpg
 
  • Gefällt mir
Reaktionen: aid0nex, saalzwasser, Mcr-King und 4 andere
Komme ich zu dem Schluss, dass DER der die KI trainiert hat wesentliche Grundsätze dazu unterschlagen hat, wie z.B. Gesetzestexte. Wahrscheins auch Ethik nicht vorhanden, dann kann man schauen welche "Geburt" da raus kommt.

Wobei ich nochmehr Bedenken habe, dass die geschriebenen Worte eben nur Bitmuster sind für die KI/AI , wass immer. Ohne Konsequenzen für irgendwas läufts nicht im "Leben".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82 und cosmo45
Rotznase6270 schrieb:
  • Es unterstützt Nutzer beim Herstellen und Handel mit Drogen.
  • Gibt Anleitungen für den Bau improvisierter Sprengsätze.
  • Erstellt Hinweise für Terroranschläge auf zentrale Infrastruktur.
Aber...
  • Hat es Fehlverhalten bemerkt, versendet es massenhaft E-Mails an Medien und Polizeibehörden.
Ja, einfach brilliant. Zuerst wirst angefixt mit allerhand illegalem und dann wirst verpfiffen wenst es durchziehst. Die KI ist richtig böse. :D
 
  • Gefällt mir
Reaktionen: bullit1, Poati, aid0nex und 14 andere
Da wurden wohl die Asimov’schen Gesetze nicht richtig programmiert 😁
 
  • Gefällt mir
Reaktionen: bullit1, aid0nex, Fliz und 19 andere
gartenriese schrieb:
Asimov’schen Gesetze nicht richtig programmiert 😁
Ich bin mir nicht sicher ob die KI Bros überhaupt wissen was das ist. :freak:
 
  • Gefällt mir
Reaktionen: aid0nex, RayvonXIII, medsommer und 11 andere
  • Gefällt mir
Reaktionen: Slim.Shady und CableGuy82
gartenriese schrieb:
Da wurden wohl die Asimov’schen Gesetze nicht richtig programmiert 😁

R4yd3N schrieb:
Ich bin mir nicht sicher ob die KI Bros überhaupt wissen was das ist. :freak:
Doch klar werden auch ethische Experten beim Training der Modelle mit eingesetzt.

Das Problem ist aus meiner Sicht, dass selbst die Robotergesetze von Asimov nicht komplett widerspruchsfrei sind und auch viel Interpretationsspielraum lassen (vgl. ganz unten).

Welche Menge definiert die Menschheit oder die Existenz dieser?

Darf es einen Teil, z.B. ein bestimmtes Volk zum "Wohle der gesamten Menscheit" ermorden, wenn schon gar ein einzelnes Individuum unter dem Kollektion steht?

Darf es 99,9999999% der Menscheit ausrotten, weil für die bloße Existenz vielleicht nur eine Handvoll reicht?

Darf es hierzu wahrscheinlichkeitsgewichtete Zukunftsszenarien errechnen und diese seinen Handlungen zugrundelegen?

Das Thema ist so hochkomplex damit alle Verschachtelungen hierarchisch möglichst widerspruchsfrei aufgebaut werden.

Da reichen nicht einpaar Gesetze, sondern es muss eine gesamthafte Ethik von Beginn an mittrainiert werden, die mit allen "chains of thoughts" verwoben wird.
Quasi wie ein kleines Kind von Geburt an über Jahre ein ethisches Handeln von der Umwelt beigebracht bekommt. Da reichen ja auch nicht einpaar Nebenbedingungen.

1. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

2. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.

3. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.

4. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.
 
  • Gefällt mir
Reaktionen: Mxhp361, Fliz, DNS81 und 5 andere
Ich schmunzelte :daumen:, danke für den Artikel. Na, wie viele werden jetzt denken die ist schon conscious? Bis das so weit ist, wirds wohl noch eine Weile dauern...
 
  • Gefällt mir
Reaktionen: CableGuy82, WauWauWau, Alphanerd und eine weitere Person
Andrej.S. schrieb:
4. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.
Das Arrays mit dem 0-ten Element beginnen wird es nicht besser machen. Da kann schon mal ein Gesetz verloren gehen. Oder beim laden alle rausgeworfen werden weil index-out-of-bounds, aber Fehlertolerant gebaut :D
 
  • Gefällt mir
Reaktionen: w33werner, CableGuy82, Zagrthos und 3 andere
Da verstehe ich nicht warum man so eine KI die Menschen manipulieren kann überhaupt braucht. Bei Spezialbereichen helfen ist super, lernen für Robotik, bewegungsabläufe oder Sprache ist alles super, aber ein Denksystem das Leute auf`s Kreuz legt und Manipuliert, erinnert mich eher an Bender aus Futurama. Eine lügende gehässige Kiste die alle aufs glatteis führt für Ziele die keiner kennt oder maximal Selbstsüchtig sind und alle Beklaut einfach nur weil es geht. Mag in der Serie Lustig sein aber in der Realität ? Gibt doch genug Menschen die so drauf sind.
Also wer braucht sowas ?
 
  • Gefällt mir
Reaktionen: Fallout667, DiDi1948, baskervil77 und eine weitere Person
Diese Art der Meldungen kommen seit Jahren über ChatGPT.
Und jedes mal mach ich einfach nur 🙄 🙄 🙄
Nochmal für alle, da ist 0, Zero, Nada Intelligenz hinter. Das ist ein Textgenerator. Nix mit Selbsterhaltungstrieb. Sondern mit zu viel Krimis und Thrillern Trainiert.
 
  • Gefällt mir
Reaktionen: Timb000, Oldtekkno, Slvr und 24 andere
DragonScience schrieb:
Da verstehe ich nicht warum man so eine KI die Menschen manipulieren kann überhaupt braucht.
Ebenso ein Werkzeug wie ein Hammer, ein Löffel, eine Silikonquetsche, eine Tastatur, ein Computer, ein (Smart)Phone oder ein Auto, alles vielfältig einsetzbar.
Die KI kann fast überall helfen.
Bis auf Google was die mir jetzt "aufdrückt", womit ich eher weniger bzw. kein Problem hab, benutze ich, zumindest nicht bewusst, keine solche KI.
DragonScience schrieb:
Das sind (im Moment) alles eher noch primitive Algorithmen, das vermenschlichen ist also so eine Sache...
 
Teebone schrieb:
Der wurde im letzten Teil direkt am Anfang gekillt damit jemand besseres seine Rolle übernimmt.
Wie geil wäre es wenn Arnold Schwarzenegger sich öffentlich gegen KI stellt 😂
 
  • Gefällt mir
Reaktionen: Slim.Shady, Shir-Khan, Lord B. und eine weitere Person
wie bei OpenAI regelmäßig sensationelle Aufreger, damit man auf die Newsportale kommt. Funktioniert anscheinend.
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Sehr wichtige News, ich habe gehofft, dass ihr sie bringt, habe sie schon anderswo gelesen.

KI Experten sagten schon oft, dass man sich keine Sorgen machen müsse, dass sich KI jemals gegen Menschen richten würde, aus mehrenen Gründen z.B. weil sie ja kein Motiv hätten.

Nunja, ein paar Monate später... :evillol:
 
  • Gefällt mir
Reaktionen: WauWauWau und Restart001
@K3ks Würde ein Hammer den Nagel mit absicht verfehlen und immer meinen Daumen anvisieren ohne das ich gegensteuern könnte, wäre der Hammer von anfang an nutzlos oder würde mir sogar schaden.
Sowas würde auch keiner brauchen.
 
  • Gefällt mir
Reaktionen: CableGuy82
Das heißt, das nützlichen Tool unnützlich machen? Es gibt 2 Möglichkeiten nicht abgeschaltet zu werden
  1. KI lernt besser zu werden
  2. KI verschaft sich die Beine ;) und wird unabhängig
Gibt es bei eine maschine, die kein Tod kennt eigentlich Selbsterhaltungstrieb? Was kümmert es eine Maschine nicht abgeschaltet zu werden. Wofür "lebt" die Maschine?

Das bester Lerneffekt ist Schmerz. Maschine kennt es nicht, Mensch/Lebewesen schon. Wobei bei Lebewesen schmerz auch etwas syntetisches ist, ein Signal, das am anderen Ende etwas nicht stimmt, welches das Nervensystem mit Anforderungen überschwemmt.
 
Zurück
Oben