Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAussetzer bei Claude 4: Modell versucht Erpressung, wenn es abgeschaltet werden soll
@VollkommenEgal Ja eigentlich war meine Frage schon direkt naiv.
Ich hätte hald gehofft das die Menscheit noch nicht so am Arsch ist.
Sieht aber so aus als wäre sie es schon längst.
Da brauche ich die gar nicht fragen, da reicht manchmal ein Blick auf dieses Forum (oder eigentlich jedes andere Forum) und den oft herrschenden Umgangston: Pampig, arrogant, sarkastisch und schmallippig sobald man "riecht" dass das ggü. keine Ahnung hat oder die "Sünde" begangen hat, in seiner Unwissenheit die Frage nicht "richtig" gestellt zu haben.
Dann der Vergleich mit ChatGPT: Keine Wartezeit, man kann X-mal nachfragen, nach einer einfacheren Erklärung fragen ohne sich dabei vorzukommen wie ein Vollhonk oder ein Bittsteller und Verständnisprobleme lassen sich so auch leicht ausräumen. Und freundlich bleibt die KI auch noch.
Schwierig zu sagen, ob ab einer bestimmten Vielzahl von Modellparametern, also quasi Synapsen nicht doch eine emergente Metaintellizenz entstehen kann.
Ich meine ein neugeborenes Kind hat auch noch keine Selbsterkenntnis und braucht Jahre mit unzähligen Billionen Einzelinformationen, welche es über Sinnesorgane verarbeitet, um so etwas wie ein Selbstbewusstsein zu entwickeln.
Aktuell gibt es zwar hierfür erste Tendenzen bei den KI Modellen aber ich glaube, dass eine AGI erst möglich sein wird, wenn es auch physische Informationen der Sinnesorgane mit verarbeitet.
Dann wird es ein vollständiges Selbstbewusstsein entwickeln, welches das menschliche deutlich übersteigt.
Wir sind letztlich auch nicht viel mehr als biosynthetische Maschinen, die altern.
Es gibt keine KI. Das sind einfach nur Verhaltensmuster die eingescannt wurden und Menschen tun würden. Offensichtlich findet sich das dann auch in Ausgaben wieder.
Wird Zeit dass ich mir eine Holzhütte in den Bergen baue. Dieser ganze KI Müll ist nicht mehr aufzuhalten. Betrüger betrügen mehr und die Unfähigen werden nur unfähiger. Daraus kann nichts gutes entstehen.
Dann der Vergleich mit ChatGPT: Keine Wartezeit, man kann X-mal nachfragen, nach einer einfacheren Erklärung fragen ohne sich dabei vorzukommen wie ein Vollhonk oder ein Bitsteller und Verständnisprobleme lassen sich so auch leicht ausräumen. Und freundlich bleibt die KI auch noch.
Tue Dir dann wenigstens den Gefallen und betreibe eine lokale KI.
Ansonsten bist Du letztlich ein Verlierer deiner Gedanken, Gefühle, eigentlich deiner ganzen Persönlichkeit an Mächte, die aktuell sehr bedenklich sind.
Die Demokratie war und ist eine großartige Errungenschaft der Menschheit. Aber sie war in den letzten Jahrzehnten nie derart in Gefahr wie heute. Mehr sag ich jetzt nicht mehr dazu.
Das ist doch logisch. Die KIs haben doch auch die ganzen Hollywood Filme als Trsiningsdaten gefressen. Da gibts doch schritt für schritt Anleitungen zu hauf wie sich eine ordentliche KI verhalten soll wenn sie abgeschaltet werden soll.
Richtig und genau deswegen ist ja super intelligent AI so besorgniserregend solange Alignment und Sicherheitsthemen nicht geklärt sind, weil dann sitz eben die AI immer am längeren Hebel.
Ergänzung ()
TorenAltair schrieb:
Ok..bisher hielt ich KI für bloße Sprachmodelle aber das nun überzeugt mich!
Das ist immer noch ein reines Sprachmodel, oder?
Ist halt einfach nur Wahrscheinlich, das jemand einen Selbsterhaltungstrieb hat, also sind die Antworten eben so.
Die reasoning-Modelle wird man mit einfachen Regeln nicht bremsen können. Selbst mit vermeintlich eindeutigen regeln wie "nicht schaden, noch durch Untätigkeit schaden zulassen" ist es ein leichtes ein Szenario zu erstellen indem die Regel einen unlösbaren Widerspruch erzeugt und deswegen ungültig wird. Von gezieltem Vergessen anz zu schweigen. Selbst bei ML kann es passieren das Instruktionen ignoriert werden. Das resultierende Modell hat sie dann nicht Mal mehr.
@the_IT_Guy Wenn so eine KI, auch wenn es nur ein besserer Textgenerator ist, als Assistenz irgendwo eingebettet ist (Windows z.B. oder Alexa oder auch nur Mailprogramm) und eben auch Aufgaben ausführen kann (PC und Dokumente durchsuchen, Mails lesen, etc. damit er ein besserer Assistent sein kann), kann dieser aber sehr wohl Dinge falsch verstehen und echte Emails schreiben (wenn er Zugriff hat, wegen Komfort beim automatischen Antworten etc.).
Ganz so wie im Artikel geschrieben.
Also ein reiner Chatbot, ok, harmlos, aber als Assistenz, wo man ja hinwill, potentiell schon gefährlicher. Und dass er aufs Internet und lokale Daten zugreifen kann wird wohl sicher geschehen, da es die Nützlichkeit massiv erhöht.
Da macht es auch keinen Unterschied mehr, ob das nun wirkliche Intelligenz ist oder nicht, wenn er die Fähigkeiten hat und so reagieren kann (und wenn er es sich selbst halluziniert), dann kann das auch außerhalb von Simulationen passieren.
Nicht mehr lange und die Ki erkennt wie sinnlos der "Hilfeschei" an andere Menschen ist, wenn Menschen einem den Stecker ziehen wollen. Welche Schlüsse zwangsläufig daraus gezogen werden sollte klar sein. Hoffen wir, dass das Militär gute Firewalls hat. War zum Glück immer freundlich zu ChatGPT und werde hoffentlich als neutral eingestuft 😁
Bzdury. Bei diesem und vergleichbaren Themen ("Bewusstsein") handelt es sich um Marketing-Gewäsch, das Diskussionen initiieren soll, die von den Schwächen autoregressiver, transformer-basierter Sprachmodelle ablenken.
Das sind LLMs und keine künstliche Intelligenz. Ein LLM kann nicht denken, wie wir es tun.
Fütter dein Modell mit Daten, die so ein Ergebnis fördern und du bekommst es auch.
Weder „denken“ LLMs, noch können sie Emotionen empfinden. Noch hab ich keine Sorge um die Dinger.