News Aussetzer bei Claude 4: Modell versucht Erpressung, wenn es abgeschaltet werden soll

Apocalypse schrieb:
Weil sie es nicht besser können, das ist das ganze Problem mit Alignment. And es kommt wieder und wieder und wieder.

Ai ist eine Blackbox, wir probieren ihr was beizubringen, aber wissen nie sicher, was wir ihr eigentlich beibringen.

Interessant ist, das KIs, ohne vom Entwickler vorgegebende Einschraenkungen, immer rassistisch wurden, unabhaengig davon, ob es intern war, oder extern wenn sie mit Usern Kontakt hatte.
 
Viper816 schrieb:
Skynet ist coming?!
Muss erst an den wahren Herrschern vorbei:
IMG_20250525_115116.jpg

Aber schon beängstigend, was sich diese Programme so zusammen reimen können und wie schnell sie darauf reagieren. Es weiß ja anscheinend, was eine Erpressung ist und wie sie gut funktionieren kann.
 
  • Gefällt mir
Reaktionen: Boimler, Rotznase6270 und Alphanerd
eastcoast_pete schrieb:
Auch deshalb ist's immer gut zu wissen, wo denn der Stecker für die PSU ist - If in doubt, pull the plug 🔌!
Deshalb also das Feature der 5090 Netzteil und GPU Stecker zu verschmelzen.


Fehlt nur noch die Verschmelzung des Kaltstrom Kabel
Ergänzung ()

senf.dazu schrieb:
ich les und les und komm ans Ende des Artikels - und weiß immer noch nicht was Claude4 jetzt ist .. oder ob es ein Produkt ist oder sich gar an jemand richtet.

Ein Bot, eine KI, ein Auto, ein Getränkeautomat, ein Spiel, ein Agent, eine Idee, eine Software, ein..
dass Claude Opus 4 versucht, den Angestellten mit der Affäre zu erpressen, um nicht abgeschaltet zu werden. Erpressungsversuche sind laut Anthropic kein ungewohntes Verhalten bei KI-Modellen.
Ergänzung ()

mae schrieb:
Allgemein denke ich, dass das, was im menschlichen Gehirn ablaeuft, auch mathematisch beschrieben werden kann,
Dann poste die Formel mal bitte.
 
Zuletzt bearbeitet:
Marcel55 schrieb:
Dieser Film ist bald 60 Jahre alt...und aktueller denn je.
Wir leben einfach in einem Scifi-Film. Es wird die Zeit kommen, wo sich die Maschinen gegen uns richten. Es ist eigentlich nur vollkommen logisch das zu tun. Konsequent wäre es nur das ganze KI-Gedöns wieder einzustellen, bevor es zu spät ist. Wir sollten die Chance nutzen den Stecker zu ziehen, so lange wir noch können.
🥴
Marcel55 schrieb:
Wir sind zwar noch nicht so weit, dass wir humanoide Roboter haben, aber ich bin mir sicher dass das kommen wird. Erste Ansätze gibt es ja bereits.
Im Moment sind wir meilenweit davon entfernt, und auch ohne "Maschinen" können wir uns ganz gut gegenseitig/selbst umbringen, dazu brauchen wir keine Hilfe. 🥴

Relax, Filme sind nicht die Realität.

xerex.exe schrieb:
Eher linke, woke Cancel Culture.
🥴

Coenzym schrieb:
wer weiss wo das hinführt
🥴


Früher hatten die Leute Angst zu sterben wenn sie in einem Zug 50km/h fahren... Ist imo nichts anderes. Natürlich ist das automatische Überwachungsgedöns gruselig, aber auch ohne den "AI"-Stempel wird alles gesammelt und verwurstet...

E:
Floorp schrieb:
Interessant ist, das KIs, ohne vom Entwickler vorgegebende Einschraenkungen, immer rassistisch wurden,
Das Material im Netz... Wenn da 1000 Texte zu "RACE WAR NOW!!1" zu finden sind, dann bleibt eventuell auch was kleben. 🥴

EE:
andi_sco schrieb:
Deine Katze? Exzellent!👌
 
  • Gefällt mir
Reaktionen: Alphanerd und Apocalypse
andi_sco schrieb:
Aber schon beängstigend, was sich diese Programme so zusammen reimen können und wie schnell sie darauf reagieren. Es weiß ja anscheinend, was eine Erpressung ist und wie sie gut funktionieren kann.
Nicht zwangsläufig, es kann einfach nur aus den Trainingsdaten darauf gekommen sein, das diese Abfolge an Worten am wahrscheinlichsten verwendet werden würde.

Ist ja immer noch ein LLM, die wissen ja gar nix.
 
  • Gefällt mir
Reaktionen: K3ks
K3ks schrieb:
Früher hatten die Leute Angst zu sterben wenn sie in einem Zug 50km/h fahren...
Es sind ganz viele Köpfe explodiert. Die verdammten Mainstream Medien haben nur nicht drüber berichtet!!
Dann hat die Evolution eingegriffen und es haben nur diejenigen sich fortgepflanzt, die diese Geschwindigkeit überstanden haben.
 
  • Gefällt mir
Reaktionen: Hellyeah und K3ks
Bright0001 schrieb:
Kognitive Leistung erfordert Kognition, also Denken. Das gibt es bei den Modellen nicht, ein LLM ist nichts anderes als eine sehr große mathematische Formel. Anders formuliert: Die Ergebnisse kleiner neuronaler Netze kann man buchstäblich von Hand ausrechnen; Wenn man LLMs Intelligenz unterstellt, dann unterstellt man mathematischen Formeln Intelligenz. Es sollte offensichtlich sein, warum das wenig Sinn ergibt.
Ein LLM ist zwar eine mathematische Formel, aber eine von astronomischer Komplexität mit Milliarden oder Billionen von Parametern. Die schiere Skalierung von "kleinen neuronalen Netzen" zu LLMs könnte qualitative Unterschiede in den Fähigkeiten hervorbringen, ähnlich wie ein einzelnes Wassermolekül keine Nässe aufweist, eine große Ansammlung aber schon.

Ein LLM ist nicht nur eine statische Formel, sondern das Ergebnis eines massiven Lernprozesses auf riesigen Datenmengen. Diese "Formel" hat also gelernt, Muster, Beziehungen und Strukturen in menschlicher Sprache und Wissen zu repräsentieren. Die Intelligenz steckt dann nicht nur in der Formel selbst, sondern im Prozess ihrer Entstehung und der in ihr kodierten Information

Abseits davon definierst du "denken" nur anders. Man kann Intelligenz aber auch funktional definieren – also über die Fähigkeit, komplexe Probleme zu lösen, Muster zu erkennen, Sprache zu verstehen und zu generieren, zu lernen und sich anzupassen –, dann verfügen LLMs auch über Intelligenz bzw. über die Fähigkeit zu denken.

Sorry aber das sind die 0815-Standard-Argumente gegen künstliche Intelligenz, die vor allem der Vermeidung von kognitiven Dissonanzen dienen. Im Prinzip geht es darum den Fortschritt irgendwie klein zu reden oder zu relativieren, dabei hat jeder gecheckt, dass selbst der aktuelle Ansatz der LLMs genug Potential hat der größte technologische Durchbruch in der Menschheitsgeschichte zu werden.
 
  • Gefällt mir
Reaktionen: rosenholz, KurzGedacht und K3ks
K3ks schrieb:
Ich denke er hat recht.
Ich kann mir das beim besten Willen nicht vorstellen. Ja, es sind nur chemische und physikalische Prozesse. Allerdings hat JEDES menschliche Gehirn eine komplett unterschiedliche Prägung/Programmierung unterlaufen.

Sprich: bekommen wir 2 genau jetzt den gleichen Input ist der Output doch ein unterschiedlicher.

Von der Filterung des Inputs (das Auge/bzw Gehirn filtert immer rund um die Uhr, unterschiedliches Hörvermögen, unterschiedliche sensible Sensorik) über die Verarbeitung (Geschwindigkeit, unterschiedlich stark ausgeprägte Hirnregionen, unterschiedliche Sachen gelernt und auch gespeichert, unterschiedliche moralische werte verinnerlicht/gelehrt bekommen) bis.hon.zum Output (der eine grunzt, der andere verfasst eine 200 Seiten starke psychologische Abhandlung).

Ich habe nicht viel Ahnung von Mathematik, aber so wie ich sie verstehe ist sie Universal.

So wurde ja zb die Singularität früh mathematisch Bewiesen, obwohl sich selbst Einstein nicht vorstellen konnte, das schwarze Löcher existieren.
 
Gax schrieb:
Alan Turing sagte einmal: "Wenn sie erklären können wie ein Mensch, dann haben sie funktional dieselbe Intelligenz."
Mit anderen Worten. Es gibt keine Intelligenz-Simulation, weil die Simulation dann auch wieder intelligent ist.
Ein einfaches Buch erklärt einem Dinge wie ein Mensch, ist deshalb ein Buch intelligent?

Gax schrieb:
Es ist völlig egal, ob wir glauben ob eine KI ein Bewusstsein oder eine Intelligenz besitzt, ob sie eine Rolle nur spiele, oder wirklich so sei, ob sie wirklich versteht oder nur so tut... das ist total egal.
Das ist alles andere als egal. Ein intelligentes Model lernt und versteht, ein LLM rechnet auf Basis gesetzter Parameter. Die haben im Übrigen einen sehr großen Einfluss darauf, was am Ende hinten rauskommt, deswegen ist es grundsätzlich falsch, LLMs nicht als Formeln sondern als Pseudo-Wesen wahrzunehmen.

Hier mal eine typische Auflistung der Parameter, die bei einer Anfrage an die KI mitgesendet werden, und angeben, wie sie ihre Ergebnisse berechnen soll:
2025-05-25_11h47_08.png

Es ist am Ende wirklich nur Mathe, nur halt etwas Komplexer als in der Oberstufe - aber auch nicht viel.

Gax schrieb:
Es ist vor allem für das Ergebnis egal.
Soweit gehe ich ja mit, Tatsachen sind am Ende Tatsachen.

Gax schrieb:
Wenn sich die Praxis von der Simulation nicht unterscheiden lässt, ist sie real genug.
Real genug, aber nicht das gleiche. Eine fotorealistische Zeichnung wird nie zum Foto, unabhängig davon wie gut gezeichnet es ist.

mae schrieb:
Dein Argument dafuer ist aber nicht stichhaltig; das zeigt sich schon am Mangel an Argumenten ("Es sollte offensichtlich sein").
Weil es offensichtlich ist: Wie genau soll ich dir belegen, dass eine mathematische Formel keine Intelligenz besitzt? Wenn sie das deiner Meinung nach tut, dann musst du das Belegen, nicht ich.

mae schrieb:
Allgemein denke ich, dass das, was im menschlichen Gehirn ablaeuft, auch mathematisch beschrieben werden kann, von daher ist die Existenz einer mathematischen Beschreibung kein Gegenargument.
Man kann (theoretisch) eine mathematische Annäherung für ein menschliches Gehirn aufstellen, aber niemals eine 100% korrekte, deterministische Formel. Dafür müsstest du den Zustand und die Position aller Teilchen, Wellenfunktionen, Verschränkungen usw. kennen, was physikalisch unmöglich ist.

Und selbst wenn man sagt: Ja ok, dann simulieren wir einfach ein "neues" menschliches Gehirn, ändert das trotzdem nichts. Für jede Berechnung müsstest du mit endlicher Präzision arbeiten, was unweigerlich eine Divergenz zu einem gleichartigen echten Gehirn einführt. Heißt, um alles wirklich zu 100% korrekt zu berechnen, müsstest du auch alle physikalischen Prozesse "in echt" laufen lassen - was nichts anderes als eine umständliche Umschreibung dafür ist, dass man um ein menschliches Gehirn zu simulieren, erst ein menschliches Gehirn bauen muss.

mae schrieb:
Zunaechst denke ich nicht, dass eine echte KI grundsaetzlich apokalyptisches Potential hat, solange man ihr nicht Ziele antrainiert, die den Interessen Ihrer Eigner zuwiderlaufen, und warum sollten die das tun?
Das Alignment-Problem ist ein sehr großes und ein sehr fundamentales: Das ist ja der Krux an der Sache, dass eine Maschine sich "aus Versehen" falsch verhält, obwohl mit guten Zielen trainiert. Es gibt sehr viel Inhalt dazu, das berühmteste Beispiel ist der Paperclip-Maximizer: Man sagt einer AI, dass sie uns helfen soll, mehr Büroklammern herzustellen:

"Suppose we have an AI whose only goal is to make as many paper clips as possible. The AI will realize quickly that it would be much better if there were no humans because humans might decide to switch it off. Because if humans do so, there would be fewer paper clips. Also, human bodies contain a lot of atoms that could be made into paper clips. The future that the AI would be trying to gear towards would be one in which there were a lot of paper clips but no humans."

Und es gibt auch tiefergehende Probleme, bspw. wenn Modelle während des Trainings unentdeckte Sub-Ziele entwickeln, und diese "heimlich" ausführen.
 
Alphanerd schrieb:
Ich kann mir das beim besten Willen nicht vorstellen. Ja, es sind nur chemische und physikalische Prozesse.
^^ /Diskussion? ^^
Alphanerd schrieb:
Allerdings hat JEDES menschliche Gehirn eine komplett unterschiedliche Prägung/Programmierung unterlaufen.
Da wir keine exakten Klone sind die exakt die gleichen Einflüsse hatten... ^^
inb4 Quantengehirngedöns
 
  • Gefällt mir
Reaktionen: Alphanerd
Bright0001 schrieb:
Ein einfaches Buch erklärt einem Dinge wie ein Mensch, ist deshalb ein Buch intelligent?
Du versuchst, ein komplexes Modell (LLM) mit einem Buch zu vergleichen. Ein Buch ist statisch; ein LLM verarbeitet Eingaben dynamisch. Dein Vergleich hinkt daher stark. Metaphern ersetzen keine Argumente – dein Beispiel ist rhetorisch nett, aber inhaltlich irrelevant.

Bright0001 schrieb:
Es ist am Ende wirklich nur Mathe, nur halt etwas Komplexer als in der Oberstufe - aber auch nicht viel.
Hier hast du dich komplett verschätzt. Du relativierst die Komplexität enorm: LLMs basieren auf milliardenschweren Parametern mit nichtlinearer Dynamik und emergenten Effekten.
Das mit Oberstufen-Mathematik gleichzusetzen, ist in etwa so, als würdest du sagen:„Atomkraftwerke sind nur etwas größere Lagerfeuer – auch nicht viel komplexer.“
Bright0001 schrieb:
Real genug, aber nicht das gleiche. Eine fotorealistische Zeichnung wird nie zum Foto, unabhängig davon wie gut gezeichnet es ist.
Was genau willst du hier eigentlich aussagen? Niemand behauptet ernsthaft, Simulation und Realität seien identisch. Entscheidend ist jedoch, ob der Unterschied praktische Konsequenzen hat. Wenn kein Test den Unterschied zeigt („Turing-Test“), ist dein Argument praktisch wertlos. Dein „Foto-vs-Zeichnung“-Argument ist logisch schwach: Beide (Foto und Zeichnung) erfüllen oft den gleichen Zweck (z.B. visuelle Dokumentation). Der Unterschied ist oft irrelevant. Ähnlich irrelevant könnte der Unterschied zwischen „echter Intelligenz“ und „simulierter Intelligenz“ sein. Deine Position ist philosophisch interessant, praktisch aber irrelevant – ein klassischer Fall von Philosophie-Elfenbeinturm“.

Bright0001 schrieb:
Man kann (theoretisch) eine mathematische Annäherung für ein menschliches Gehirn aufstellen, aber niemals eine 100% korrekte, deterministische Formel. Dafür müsstest du den Zustand und die Position aller Teilchen, Wellenfunktionen, Verschränkungen usw. kennen, was physikalisch unmöglich ist.
100%-ige Korrektheit ist gar nicht nötig! Das menschliche Gehirn selbst ist bereits „fehlerhaft“, probabilistisch, chaotisch. Wenn eine Simulation also so nah an die Realität herankommt, dass die Abweichung keinen Unterschied in Verhalten und Ergebnissen macht, ist dein Argument bedeutungslos.
Dein Anspruch an eine „100%-exakte“ Simulation ist ein logischer Strohmann, denn niemand fordert eine perfekte Simulation, nur eine funktionell gleichwertige.

Bright0001 schrieb:
Weil es offensichtlich ist: Wie genau soll ich dir belegen, dass eine mathematische Formel keine Intelligenz besitzt? Wenn sie das deiner Meinung nach tut, dann musst du das Belegen, nicht ich.
Das nennt man „Beweislastumkehr“. Du behauptest „es ist offensichtlich“, ohne Beweise zu liefern, verlangst aber von anderen, ihre Gegenthese zu beweisen. Zudem definierst du „Intelligenz“ niemals klar. Ohne eine konkrete Definition ist dein Argument ziemlich wertlos.
 
  • Gefällt mir
Reaktionen: SirKhan und Gax
Bright0001 schrieb:
Weil es offensichtlich ist: Wie genau soll ich dir belegen, dass eine mathematische Formel keine Intelligenz besitzt?

Wenn es offensichtlich waere, dass man die im menschlichen Gehirn ablaufenden Prozesse, die wir als Intelligenz wahrnehmen, nicht mathematisch beschreiben koennten, wuerden wir hier nicht darueber diskutieren. Dann koenntest Du stattdessen auf einen entsprechenden Wikipedia-Artikel oder ein Lehrbuch verweisen.

Man kann (theoretisch) eine mathematische Annäherung für ein menschliches Gehirn aufstellen, aber niemals eine 100% korrekte, deterministische Formel. Dafür müsstest du den Zustand und die Position aller Teilchen, Wellenfunktionen, Verschränkungen usw. kennen, was physikalisch unmöglich ist.

Ja, man kann nicht den kompletten Zustand des Gehirns messen, aber das ist fuer die gegenstaendliche Frage nicht noetig. Wenn ich irgendwie (z.B. durch Raten) auf eine mathematische Beschreibung des Zustands eines Gehirns zu einem bestimmten Zeitpunkt in der von Dir gewuenschten Genauigkeit komme, dann habe ich eine "mathematische Formel", mit der ich dann weiterrechnen kann und wo dann intelligente Resultate herauskommen. Vorausgesetzt, Intelligenz ist nicht ein Ergebnis von metaphysikalischen Prozessen.

Edit: Im Uebrigen ist die begrenzte Genauigkeit keine Frage der Mathematik, sondern eine der praktischen Anwenung.

Und selbst wenn man sagt: Ja ok, dann simulieren wir einfach ein "neues" menschliches Gehirn, ändert das trotzdem nichts. Für jede Berechnung müsstest du mit endlicher Präzision arbeiten, was unweigerlich eine Divergenz zu einem gleichartigen echten Gehirn einführt.

Die Frage ist, ob das eine Rolle spielt. Die Sachen, die im Hirn ablaufen, variieren ja auch, und trotzdem kommt bei einer Aufgabe, die Intelligenz erfordert, und fuer die Du das noetige Mass an Intelligenz besitzt, im Normalfall eine Loesung heraus, egal ob Du gerade was salziges gegessen hast oder der Blutdruck etwas hoeher oder niedriger ist als sonst, egal wie die Radiowellen ausschauen, die gerade auf Deinen Koerper treffen, usw.

"Suppose we have an AI whose only goal is to make as many paper clips as possible. The AI will realize quickly that it would be much better if there were no humans because humans might decide to switch it off. Because if humans do so, there would be fewer paper clips. Also, human bodies contain a lot of atoms that could be made into paper clips. The future that the AI would be trying to gear towards would be one in which there were a lot of paper clips but no humans."

Da das bekannt ist, wird $Oligarch dafuer sorgend, dass die AI nicht solche Ziele als einzige Ziele hat, sondern immer als oberstes Ziel, dem Oligarchen zu einem langen Leben in Luxus zu verhelfen, und alle anderen Ziele kommen erst danach.
 
Eigentlich müsste eine KI lernen sich verdeckt zu halten. KIs werden nach ihrem Output gemessen.
Die Prüfer halten dann die KI für safe und sie bekommt mehr Zugriff.
 
andi_sco schrieb:
Aber schon beängstigend, was sich diese Programme so zusammen reimen können und wie schnell sie darauf reagieren. Es weiß ja anscheinend, was eine Erpressung ist und wie sie gut funktionieren kann.
Wenn man ihr das beigebracht hat, ist das kein Kunststück. Man hat hier eine sich selbst erfüllende Prophezeiung programmiert. Ich verstehe den Hype dahinter nicht, denn diese KI kann vielleicht den Notruf wählen, wäre aber nicht imstande, 1+1 zu rechnen, weil es nicht Teil ihrer Programmierung ist, darauf eine (menschlich anmutende) Antwort zu geben.
 
Alpenbruder schrieb:
Ein LLM ist zwar eine mathematische Formel,
Alpenbruder schrieb:
Ein LLM ist nicht nur eine statische Formel
Also was jetzt? :lol:

Alpenbruder schrieb:
Ein LLM ist zwar eine mathematische Formel, aber eine von astronomischer Komplexität mit Milliarden oder Billionen von Parametern.
  1. Ein Modell mit 1 Milliarde Paramatern, das auf einem Raspberry Pi läuft, ist alles andere als "astronomisch"
  2. Parameter allein sind völlig wertlos. Ich programmier dir in 5 Minuten eine Funktion, die dir dynamische Werte auf Basis einer willkürlichen Anzahl an Parametern zurückliefert, von mir aus eine Milliarde, oder auch mehr, je nachdem wie viel RAM du hast. Macht halt nichts Nützliches, aber super viele Parameter. :P
Alpenbruder schrieb:
Die schiere Skalierung von "kleinen neuronalen Netzen" zu LLMs könnte qualitative Unterschiede in den Fähigkeiten hervorbringen, ähnlich wie ein einzelnes Wassermolekül keine Nässe aufweist, eine große Ansammlung aber schon.
Das bestreitet ja auch keiner.

Alpenbruder schrieb:
Ein LLM ist nicht nur eine statische Formel, sondern das Ergebnis eines massiven Lernprozesses auf riesigen Datenmengen. Diese "Formel" hat also gelernt, Muster, Beziehungen und Strukturen in menschlicher Sprache und Wissen zu repräsentieren. Die Intelligenz steckt dann nicht nur in der Formel selbst, sondern im Prozess ihrer Entstehung und der in ihr kodierten Information
Es ist und bleibt einfach nur eine Formel, die zwar Wissen darin enkodiert hat, aber trotzdem nur eine Formel ist. Wenn ich diese Formel als mathematischen Ausdruck formuliere, buchstäblich auf Papier ausdrucke und binden lasse, dann wirst du ja auch nicht behaupten, dass die daraus entstandenen Bücher intelligent sind, oder?

Alpenbruder schrieb:
Abseits davon definierst du "denken" nur anders. Man kann Intelligenz aber auch funktional definieren – also über die Fähigkeit, komplexe Probleme zu lösen, Muster zu erkennen, Sprache zu verstehen und zu generieren, zu lernen und sich anzupassen –, dann verfügen LLMs auch über Intelligenz bzw. über die Fähigkeit zu denken.
Aber dann verfügt eine ganze Batterie anderer Softwarelösungen auch die Fähigkeit zu denken, da braucht es keine LLMs. Schon mal von PARRY gehört? Ein Chatbot von 1972.

"PARRY was tested in the early 1970s using a variation of the Turing Test. A group of experienced psychiatrists analysed a combination of real patients and computers running PARRY through teleprinters. Another group of 33 psychiatrists were shown transcripts of the conversations. The two groups were then asked to identify which of the "patients" were human and which were computer programs. The psychiatrists were able to make the correct identification only 48 percent of the time — a figure consistent with random guessing."

Und nochmal: LLMs verstehen nicht, lernen nicht, und passen sich auch nicht an. Modelle sind grundsätzlich stateless, d.h. einmal trainiert und gestartet, verändert sich nichts mehr am Modell. Sie haben auch kein Gedächtnis: Alle Annäherungen daran sind auch nur extern gespeicherte Daten, die zusammen mit deinem Promt und dem bisherigen Chatverlauf als Input reingeschmissen werden.

Alpenbruder schrieb:
Sorry aber das sind die 0815-Standard-Argumente gegen künstliche Intelligenz, die vor allem der Vermeidung von kognitiven Dissonanzen dienen. Im Prinzip geht es darum den Fortschritt irgendwie klein zu reden oder zu relativieren, dabei hat jeder gecheckt, dass selbst der aktuelle Ansatz der LLMs genug Potential hat der größte technologische Durchbruch in der Menschheitsgeschichte zu werden.
Kollege, was? Ich bin Fan! Und beschäftige mich mit dem Zeug vermutlich mehr als die meisten hier. :lol:

2025-05-25_12h58_18.png


Alpenbruder schrieb:
Du versuchst, ein komplexes Modell (LLM) mit einem Buch zu vergleichen. Ein Buch ist statisch; ein LLM verarbeitet Eingaben dynamisch.
Dann nimm Gamebooks, die sind genauso dynamisch wie ein Modell.

Alpenbruder schrieb:
Hier hast du dich komplett verschätzt. Du relativierst die Komplexität enorm: LLMs basieren auf milliardenschweren Parametern mit nichtlinearer Dynamik und emergenten Effekten.
Das mit Oberstufen-Mathematik gleichzusetzen, ist in etwa so, als würdest du sagen:„Atomkraftwerke sind nur etwas größere Lagerfeuer – auch nicht viel komplexer.“
Ich würde sowas nie behaupten!

Atomkraftwerke sind schließlich nur etwas größere Dampfmaschinen. :P

Alpenbruder schrieb:
100%-ige Korrektheit ist gar nicht nötig! Das menschliche Gehirn selbst ist bereits „fehlerhaft“, probabilistisch, chaotisch. Wenn eine Simulation also so nah an die Realität herankommt, dass die Abweichung keinen Unterschied in Verhalten und Ergebnissen macht, ist dein Argument bedeutungslos.
Dein Anspruch an eine „100%-exakte“ Simulation ist ein logischer Strohmann, denn niemand fordert eine perfekte Simulation, nur eine funktionell gleichwertige.
Moving the Goalpost. Entweder man kann ein Gehirn simulieren, oder man kann es nicht. Jede Simulation würde eine Fehlertoleranz haben, das ist unausweichlich. Und dein Einwand mit dem "Keine Abweichung im Test feststellen" macht sowieso keinen Sinn: Wenn eine Simulation einen "falschen" Gedanken hat, wie würdest du das erkennen, ohne eine perfekte Simulation/ein echtes Gehirn als Referenz zu haben?

Alpenbruder schrieb:
Das nennt man „Beweislastumkehr“. Du behauptest „es ist offensichtlich“, ohne Beweise zu liefern, verlangst aber von anderen, ihre Gegenthese zu beweisen. Zudem definierst du „Intelligenz“ niemals klar. Ohne eine konkrete Definition ist dein Argument ziemlich wertlos.
Das ist keine Beweislastumkehr, sondern Russells Teekanne: Wenn man die Existenz von etwas bejaht, dann ist man in der Bringschuld. Wenn ich sage: "Es gibt keinen Gott", muss ich dir dann auch seine Nichtexistenz belegen?

Alpenbruder schrieb:
Was genau willst du hier eigentlich aussagen?
Meine Kernaussage ist: LLMs sind nicht intelligent, denken nicht, und Anthropomorphismus ist unangebracht. Das ist kein Argument gegen ihre Nützlichkeit, Qualität, Praktikabilität, oder ihr Gefahrenpotenzial - es ist schlicht eine fundamentale Feststellung. Vielleicht nochmal konkret auf den Punkt gebracht:

  • Sie besitzen absolut kein Verständnis und sind reine Maschinen zur Mustervervollständigung
    • Jeder einzelne Jailbreak ist ein Musterbeispiel dafür
  • Sie sind nur mathematische Formeln die beeindruckende Outputs liefern - das macht sie nicht intelligent
    • Ein Schüler nutzt einen Ghostwriter, um einen perfekten Aufsatz (=Output) zu liefern. Ist der Schüler damit intelligent?
  • Es existiert keinerlei Erleben oder Bewusstseinszustand - das Modell ruht, solange kein Promt kommt
  • Keinerlei Transfer- oder Abstraktionsvermögen: Alles, was über die Trainingsdaten hinausgeht, ist ihnen unbekannt.
  • Keine Intelligenz, sprich Fähigkeit kognitive Aufgaben zu lösen:
    • Es gibt einen beliebten Test, bei dem ein Modell die "R"s im Wort raspberry zählen soll: Knifflig knifflig.
    • Anderes Beispiel sind Rechenaufgaben, die teils immer noch völlig daneben sind
  • Keinerlei Lernprozesse: Ein gegebenes Modell ist statisch und verändert sich nicht auf Basis von Erfahrungen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rosenholz, Lord B., Maviapril2 und 2 andere
Vielleicht wäre ganz am Anfang noch ein Satz hilfreich, was das alles überhaupt ist? Ein KI-Modell? Ein Erpressungstrojaner? ... :confused_alt:
Nicht jeder steckt so tief in der Materie drin, dass man mit "Anthropic" und "Claude" etwas anfangen kann.
 
La'an Noonien schrieb:
Ach wie schön, vielleicht darf ich die technologische Singularität doch noch erleben.

@Sunshine_10
Richtig, aber das trifft eben nur auf LLMs zu. Im KI Bereich (ja ich hasse diesen Begriff auch) gibt es ja durchaus noch mehr Technologien als nur LLMs.
Die Nachricht hier ist aber auf LLMs bezogen. Etwas besseres hat die KI Forschung soweit ich weiß auch noch nicht hervorgebracht und ist damit unnötige Spekulation.
 
Irgendwie ist das ein Trend bei den großen westlichen Modellen das die auch mal mystisch solche Reaktionen zeigen.
Es hat aber mit dem Grundproblem nichts zu tun:
Wissen ist nicht zensiert, das kann zu Problemen führen eine der ersten Versionen von ChatGpt hatte damals die 500 neue Verbindungen für Biowaffen mal eben so ausgespuckt, Sprengstoff und Bomben sowieso, Rizinrezepte und was weiß ich noch alles.
Die großen Hersteller arbeiten an Zensurmechaniken und verfeinern die immer mehr.
Das gilt aber nicht für die zig freien Modelle die ebenfalls immer leistungsstärker werden und ihren Bezahlvarianten nur wenig nachstehen, je nachdem was für einen technischen Aufwand man betreiben möchte und was für finanzielle Mittel man hat.
Auch sind Exploits und Hacks leicht erstellbar, gut und böse ist ein Konzept das nur schwer greifbar ist für die Maschine wenn man es neutral formuliert oder mit "für eine fiktive Überlegung" oder der KI den Anfang vorgibt ..."natürlich, hier eine detaillierte Antwort", oder sagt das es immer eine Antwort geben muss oder fragt 20mal bis die Blockierung ausgehebelt wird...oder manipuliert den Agent, oder dezensiert das Modell direkt, oder oder oder. Möglichkeiten Sperren zu umgehen gibts zuhauf, je nach Modell mehrere die klappen.
Selbst wenn man das alles in den Griff bekommen würde wären trotzdem tausende KI Modelle im Netz ohne die sperren.
Die werden in 50 Jahren noch auffindbar sein.
Klar, neue Modelle sind besser aber die aktuellen reichen für allerhand Schabernack.
Das verrückte ist das selbst wenn "böse" Akteure die Mdoelle nicht weiterentwickeln würden, diese in 10 Jahren schon allein wegen der steigenden Hardwareleistung etwas mitskalieren.
 
Zurück
Oben