News Aussetzer bei Claude 4: Modell versucht Erpressung, wenn es abgeschaltet werden soll

  • Gefällt mir
Reaktionen: atomec, saintsimon, CableGuy82 und 2 andere
@VollkommenEgal Ja eigentlich war meine Frage schon direkt naiv.
Ich hätte hald gehofft das die Menscheit noch nicht so am Arsch ist.
Sieht aber so aus als wäre sie es schon längst.
 
  • Gefällt mir
Reaktionen: Fallout667 und Madden.
Andrej.S. schrieb:
Doch klar werden auch ethische Experten beim Training der Modelle mit eingesetzt.

Die selben, wie sie angeblich OpenAI und Co. haben?
Ja, wers glaubt...

Bestenfalls ist das wie in jeder Firma. Posten vorhanden, aber drauf hören tut niemand.
 
Stanzlinger schrieb:
Am Stromstecker sitzt immer der, mit dem längerem Hebel ^^
Wirklich:

1748118135436.jpeg
?

https://memory-alpha.wiki/mediawiki/images/1/11/M5_zieht_Energie_aus_dem_Warpkern.jpg

M5 dachte da wohl anders ... .
 
  • Gefällt mir
Reaktionen: Slim.Shady
VollkommenEgal schrieb:
Frag mal Leute wie Zuckerberg, Musk, Trump und insbesondere Herrn Peter Thiel, warum wir KI gerade jetzt so dringend und wirklich überall "brauchen".

Da brauche ich die gar nicht fragen, da reicht manchmal ein Blick auf dieses Forum (oder eigentlich jedes andere Forum) und den oft herrschenden Umgangston: Pampig, arrogant, sarkastisch und schmallippig sobald man "riecht" dass das ggü. keine Ahnung hat oder die "Sünde" begangen hat, in seiner Unwissenheit die Frage nicht "richtig" gestellt zu haben.

Dann der Vergleich mit ChatGPT: Keine Wartezeit, man kann X-mal nachfragen, nach einer einfacheren Erklärung fragen ohne sich dabei vorzukommen wie ein Vollhonk oder ein Bittsteller und Verständnisprobleme lassen sich so auch leicht ausräumen. Und freundlich bleibt die KI auch noch.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DNS81, rosenholz, Knergy und eine weitere Person
@the_IT_Guy

Schwierig zu sagen, ob ab einer bestimmten Vielzahl von Modellparametern, also quasi Synapsen nicht doch eine emergente Metaintellizenz entstehen kann.

Ich meine ein neugeborenes Kind hat auch noch keine Selbsterkenntnis und braucht Jahre mit unzähligen Billionen Einzelinformationen, welche es über Sinnesorgane verarbeitet, um so etwas wie ein Selbstbewusstsein zu entwickeln.

Aktuell gibt es zwar hierfür erste Tendenzen bei den KI Modellen aber ich glaube, dass eine AGI erst möglich sein wird, wenn es auch physische Informationen der Sinnesorgane mit verarbeitet.
Dann wird es ein vollständiges Selbstbewusstsein entwickeln, welches das menschliche deutlich übersteigt.

Wir sind letztlich auch nicht viel mehr als biosynthetische Maschinen, die altern.
 
  • Gefällt mir
Reaktionen: Hornblower
Es gibt keine KI. Das sind einfach nur Verhaltensmuster die eingescannt wurden und Menschen tun würden. Offensichtlich findet sich das dann auch in Ausgaben wieder.
 
  • Gefällt mir
Reaktionen: NoNameNoHonor, Bl4cke4gle, Convert und 2 andere
Wird Zeit dass ich mir eine Holzhütte in den Bergen baue. Dieser ganze KI Müll ist nicht mehr aufzuhalten. Betrüger betrügen mehr und die Unfähigen werden nur unfähiger. Daraus kann nichts gutes entstehen.
 
  • Gefällt mir
Reaktionen: Mondgesang, Madden., LuxSkywalker und 2 andere
Man überlege nur, ein zurecht geschnitzter Quantencomputer mit einem "nur" abgespeckten KI Modell, da wirds interessant...
 
  • Gefällt mir
Reaktionen: Mordhorst3k
lolinternet schrieb:
Dann der Vergleich mit ChatGPT: Keine Wartezeit, man kann X-mal nachfragen, nach einer einfacheren Erklärung fragen ohne sich dabei vorzukommen wie ein Vollhonk oder ein Bitsteller und Verständnisprobleme lassen sich so auch leicht ausräumen. Und freundlich bleibt die KI auch noch.
Tue Dir dann wenigstens den Gefallen und betreibe eine lokale KI.

Ansonsten bist Du letztlich ein Verlierer deiner Gedanken, Gefühle, eigentlich deiner ganzen Persönlichkeit an Mächte, die aktuell sehr bedenklich sind.

Die Demokratie war und ist eine großartige Errungenschaft der Menschheit. Aber sie war in den letzten Jahrzehnten nie derart in Gefahr wie heute. Mehr sag ich jetzt nicht mehr dazu.
 
  • Gefällt mir
Reaktionen: atomec, Fallout667, saintsimon und eine weitere Person
Das ist doch logisch. Die KIs haben doch auch die ganzen Hollywood Filme als Trsiningsdaten gefressen. Da gibts doch schritt für schritt Anleitungen zu hauf wie sich eine ordentliche KI verhalten soll wenn sie abgeschaltet werden soll.
 
  • Gefällt mir
Reaktionen: dernettehans
Stanzlinger schrieb:
Nicht die KI (Frösche) fragen, sondern einfach den Tümpel trocken legen. Am Stromstecker sitzt immer der, mit dem längerem Hebel ^^
Richtig und genau deswegen ist ja super intelligent AI so besorgniserregend solange Alignment und Sicherheitsthemen nicht geklärt sind, weil dann sitz eben die AI immer am längeren Hebel.
Ergänzung ()

TorenAltair schrieb:
Ok..bisher hielt ich KI für bloße Sprachmodelle aber das nun überzeugt mich!
Das ist immer noch ein reines Sprachmodel, oder?
Ist halt einfach nur Wahrscheinlich, das jemand einen Selbsterhaltungstrieb hat, also sind die Antworten eben so.


Was ist sonst so noch wahrscheinlich?
 
Die reasoning-Modelle wird man mit einfachen Regeln nicht bremsen können. Selbst mit vermeintlich eindeutigen regeln wie "nicht schaden, noch durch Untätigkeit schaden zulassen" ist es ein leichtes ein Szenario zu erstellen indem die Regel einen unlösbaren Widerspruch erzeugt und deswegen ungültig wird. Von gezieltem Vergessen anz zu schweigen. Selbst bei ML kann es passieren das Instruktionen ignoriert werden. Das resultierende Modell hat sie dann nicht Mal mehr.
 
@the_IT_Guy Wenn so eine KI, auch wenn es nur ein besserer Textgenerator ist, als Assistenz irgendwo eingebettet ist (Windows z.B. oder Alexa oder auch nur Mailprogramm) und eben auch Aufgaben ausführen kann (PC und Dokumente durchsuchen, Mails lesen, etc. damit er ein besserer Assistent sein kann), kann dieser aber sehr wohl Dinge falsch verstehen und echte Emails schreiben (wenn er Zugriff hat, wegen Komfort beim automatischen Antworten etc.).

Ganz so wie im Artikel geschrieben.
Also ein reiner Chatbot, ok, harmlos, aber als Assistenz, wo man ja hinwill, potentiell schon gefährlicher. Und dass er aufs Internet und lokale Daten zugreifen kann wird wohl sicher geschehen, da es die Nützlichkeit massiv erhöht.

Da macht es auch keinen Unterschied mehr, ob das nun wirkliche Intelligenz ist oder nicht, wenn er die Fähigkeiten hat und so reagieren kann (und wenn er es sich selbst halluziniert), dann kann das auch außerhalb von Simulationen passieren.
 
  • Gefällt mir
Reaktionen: Madden., DNS81, WiP3R und eine weitere Person
Nicht mehr lange und die Ki erkennt wie sinnlos der "Hilfeschei" an andere Menschen ist, wenn Menschen einem den Stecker ziehen wollen. Welche Schlüsse zwangsläufig daraus gezogen werden sollte klar sein. Hoffen wir, dass das Militär gute Firewalls hat. War zum Glück immer freundlich zu ChatGPT und werde hoffentlich als neutral eingestuft 😁
 
PieczonyKurczak schrieb:
Selbsterhaltungstrieb
Bzdury. Bei diesem und vergleichbaren Themen ("Bewusstsein") handelt es sich um Marketing-Gewäsch, das Diskussionen initiieren soll, die von den Schwächen autoregressiver, transformer-basierter Sprachmodelle ablenken.
 
  • Gefällt mir
Reaktionen: Hellyeah, mae, Bl4cke4gle und 3 andere
Meine Theorie:

Es wurden mehrere Texte im Netz gefunden die dieses Verhalten beschrieben und die KI emuliert es - nicht mehr nicht weniger.
 
  • Gefällt mir
Reaktionen: alphatau und Alphanerd
Das sind LLMs und keine künstliche Intelligenz. Ein LLM kann nicht denken, wie wir es tun.

Fütter dein Modell mit Daten, die so ein Ergebnis fördern und du bekommst es auch.
Weder „denken“ LLMs, noch können sie Emotionen empfinden. Noch hab ich keine Sorge um die Dinger.

Aber hey, ist ja kostenlose Werbung :D
 
  • Gefällt mir
Reaktionen: Hellyeah, the_IT_Guy, Kuristina und 4 andere
Zurück
Oben