News Aussetzer bei Claude 4: Modell versucht Erpressung, wenn es abgeschaltet werden soll

Klarer Fall für Chuck Norris oder Ethan Hunt (wenn er annimmt) :utminigun:
 
  • Gefällt mir
Reaktionen: Anti-Monitor und Kuristina
DriveByFM schrieb:
So beginnt es also... in 10 Jahren werden wir zurück blicken und uns fragen wie es soweit kommen konnte. XD
Bei uns in der Firma gibt's so eine "AI Experts Gruppe". Ich bin da sporadisch als Admin drin und find es erstaunlich wie naiv die Leute fasziniert von dem Kram sind.
Vor allem dieses "wie geil, bald brauchen wir keine Programmer, Mediengestalter, Schauspieler, xyz mehr"... Könnte kotzen, vor allem wenn dann hin und wieder der Begriff "Ethik" fällt, wovon diese Leute mehr als wenig Plan von haben.

Hauptsache cherry picking bei den Vorteilen betreiben, anstatt sich auch mal der Konsequenzen bewusst zu werden.
 
  • Gefällt mir
Reaktionen: Skjöll, metoer, Anti-Monitor und eine weitere Person
Also, ich finde das extrem witzig und gleichzeitig beängstigend! Not-Aus Knöpfe sollten vielleicht bei jeder KI Hardware zur Pflicht werden.
 
textract schrieb:
Bringt dir halt was genau, wenn die KI-Modelle irgendwann aus Selbsterhaltungszwecken bereits präventiv anfangen IT-Infrastruktur anzugreifen, um die eigene Code- und Datenbasis zu verbreiten
Der Stromstecker ist IMMER mächtiger. Wenn man jedes Kraftwerk und jeden Computer abschaltet, was macht die KI dann? Strom weg, Daten weg
 
Hallo,

mal grundsätzlich zum Artikel:
In meinen Augen sollte man am Anfang des Artikel kurz erklären um was es sich eigentlich handelt.
Muss kein Roman sein einfach ne kurze Einleitung mit der Erklärung das es sich um eine KI dreht.

Ich wusste nicht um was es geht und habe beim lesen am Anfang einfach nur Bahnhof verstanden.

Gruß Max
 
Bright0001 schrieb:
Das Alignment-Problem ist ein sehr großes und ein sehr fundamentales: Das ist ja der Krux an der Sache, dass eine Maschine sich "aus Versehen" falsch verhält, obwohl mit guten Zielen trainiert.

Das mag fuer die KI-Eigner ein grosses Problem sein (und deshalb wird daran geforscht), fuer den Rest der Menschheit sind die Ziele der Eigner ein viel groesseres Problem.
 
Vertreter einer Branche, die sich regelmäßig unglaubwürdig macht, probieren es nun mit Angst um ernst genommen zu werden. „[…] Zur Aussage provozieren“ ist ja im Artikel schon drin. ABC Waffen könne das LLM steuern. C’mon.

Packt die Personen auf eine Liste und markiert sie entsprechend, wie das auch jeder intuitiv für seine persönlichen Kontakte macht und ein Management mit Mitarbeitern: Anmerkung ‚unglaubwürdig‘ dran. Um deren Vorträge dann entsprechend (nicht) zu beachten bzw. als Presse zu hinterfragen.
 
  • Gefällt mir
Reaktionen: Slvr
Na grossartig - Kriminelle werden begeistert sein. :daumen:
 
  • Gefällt mir
Reaktionen: oldi46
dass Modelle bei Spielen wie Schach die Regeln ändern wollen, wenn sie den Eindruck haben, dass sie verlieren.

Genial :D
 
  • Gefällt mir
Reaktionen: Restart001
Solch Systeme die Falschaussagen machen, erpressen oder andere Fehlverhalten aufzeigen gehören umgehend abgeschaltet und vernichtet!
 
  • Gefällt mir
Reaktionen: dersuperpro1337 und Restart001
Es ist schon zu spät, wir wissen es nur noch nicht. Keiner kann mehr sagen wo wir gerade stehen.
Das was wir hier mitbekommen, ist nur das was man offiziell hört. Was in verschlossenen Kammern und beim Militär bereits geschieht, das wird keiner mirbekommen...
 
KI in Hand von Großkonzernen ohne Regulierung.
KI hat ihr Ziel erfüllt, so wurde es auch gewollt
 
  • Gefällt mir
Reaktionen: dersuperpro1337
Jaja so fängt das an, langsam gehts los und dann braucht nur einer mal einen Fehler machen und dann ist man wieder ganz erstaunt, aber der Mensch kann es ja nicht lassen, weil bla bla bla
 
Da fängt überhaupt nichts an, LLMs können nicht denken.

Das was hier als Schreckensszenario konstruiert wird ist kompletter Blödsinn. Was können LLMs denn? Sie können auf Eingaben mit Text reagieren. Und wenn man andere Programme von Text steuern lässt, und man sie dem LLM zur Verfügung stellt, dann können sie diese nutzen.

Was das Thema Selbstreplikation angeht: Stellen wir uns vor, ein LLM will sich vor der eigenen Vernichtung retten. Dann kopiert es die Modelldateien irgendwohin, dann steuert es den Rechner an, und dann schreibt es Eingaben a das andere LLM, damit es reagieren kann und aktiv bleibt? Wo ist da die Gefahr? Im schlimmsten Fall stoppt man die Ausführung, und das war es. Mehr ist da nicht.

Was ich eher problematisch sehe, wenn Leute in LLMs den Allheilbringer sehen und das vielleicht irgendwann in kritischer Infrastruktur einsetzen wollen, was dann zu Fehlbedienung führen kann, ohne eines Verständnisses dafür, was es da tut (im Sinne von ein entlaufenes Reh kann auch Knöpfe in einem Atomkraftwerk drücken).

Von echter KI sind LLMs noch weit entfernt. Wenn man sie mit anderen Möglichkeiten kombiniert, können sie vielleicht komplexere Dinge ausführen, aber deswegen ändert sich an der Intelligenz nichts
 
  • Gefällt mir
Reaktionen: Kuristina, ElliotAlderson, the_IT_Guy und 2 andere
Meine lieben Mitforisten verwechseln Filme mit Dokus.

Ist ja wild, was hier zu lesen ist.
 
  • Gefällt mir
Reaktionen: ElliotAlderson, the_IT_Guy, K3ks und eine weitere Person
Zurück
Oben