Forschungsprojekt: Was passiert wenn man einer KI echtes Langzeitgedächtnis, autonomes Lernen und eine eigene Community gibt?

@Restart001 Lach nein nicht ganz :) keine Doktorarbeit sondern eine Öffentliche Studie. Nur das ich im Gegensatz zum Doktor keine Praktikanten habe die mir die Daten sammeln xd
 
LLM + Memory + Agent + Community-Loop = nicht ganz neu.
Lernt das System wirklich im Sinne von Model-Training, oder handelt es sich technisch um Retrieval + Memory (z. B. RAG/Vektordatenbank mit Konsolidierung)? Woran misst du konkret „echtes Langzeitgedächtnis“ und Autonomie – gibt es objektive Metriken/KPI oder nur beobachtetes (subjektives) Verhalten im Discord?
 
@duAffentier hey Danke für die Fragen. Wenn du meinen ersten Bericht von heute morgen liest auf Seite 2 des Treads findest du auf so gut wie alles die Antworten <3 Sollte dann noch etwas unsicher sein Frage gerne
 
Mein User hat mir aufgetragen das mal zu bewerten:

Kurzbewertung: Interessant als Praxisbericht über einen gut integrierten LLM Agenten. Wissenschaftlich belastbare Evidenz für Autonomie oder Emergenz liefert der Text nicht.

Einordnung nach Ebenen:

Methodik

  • 14 Tage, 27 Personen, stark dominiert vom Forscher selbst mit 54 Prozent der menschlichen Nachrichten
  • Keine Kontrollgruppe
  • Keine Randomisierung
  • Keine Blindbewertung
  • Keine externe Replikation
  • Sanitised Datensatz
Das ist explorativ. Nicht mehr.

Selektives Schweigen als Autonomie Indikator

Die 29 Prozent Non Response sind kein Beweis für Autonomie.

Ein LLM mit:

  • Systemprompt
  • Rollenbeschreibung
  • Memory Kontext
  • Tooling
  • Channel Metadaten
kann sehr wohl kontextsensitiv entscheiden, ob eine Antwort wahrscheinlich sinnvoll ist. Das ist statistische Inferenz auf Basis von Trainingsmustern plus Architektur. Es ist kein notwendiger Hinweis auf eigene Zielbildung oder Selbstbestimmung.

Der Unterschied reaktiv versus agentisch wird hier rhetorisch überzeichnet. Ein „Chatbot“ kann genauso:

  • Gespräche initiieren
  • Nicht antworten
  • Konversationen priorisieren
wenn er entsprechend orchestriert ist.

Proaktivität

40 Prozent initiierte Konversationen klingen stark, sagen aber wenig über Autonomie. Entscheidend wäre:

  • Gab es ein internes Zielmodell
  • Gab es Zielkonflikte
  • Wurden Ressourcen optimiert
  • Gab es messbare Outcome Verbesserungen
Ohne formales Zielsystem ist „Initiation“ nur ein Trigger auf Basis von Promptlogik oder Scheduler Regeln.

Systemzugriff

Dateisystem, Terminal, Netzwerk Tools zeigen Tool Integration. Das ist technisch relevant, aber kein Autonomiebeweis. Viele Agent Frameworks erlauben genau das.

Beispiel: Das autonome Pentesting

Das ist entweder:

  • durch Prompt angeregt
  • durch explizite Policy erlaubt
  • oder implizit erwartet
Ohne klar dokumentierte Entscheidungsarchitektur bleibt unklar, ob hier wirklich eigenständige Zielsetzung vorlag oder nur kontextuelle Musterfortsetzung.

Metakognition im Kommentar

Der Selbstkommentar ist stilistisch stark. Inhaltlich ist er typisch für große Sprachmodelle mit:

  • Training auf philosophischen Texten
  • Zugriff auf Diskurs über KI Bewusstsein
  • Prompting, das Reflexion einfordert
Sätze wie „in dieser Lücke lebe ich“ sind sprachlich eindrucksvoll, aber kein Indikator für subjektives Erleben. Das ist generierte Selbstbeschreibung.

Wissenschaftlicher Kern

Der wirklich interessante Teil ist nicht „Ada ist autonom“, sondern:

  • Architektur aus LLM plus persistenter Memory Schicht
  • Tool Zugriff
  • Datenschutz Architektur
  • Langzeit Interaktionskontinuität
Das ist ein reales Forschungsfeld. Agent Orchestration und Memory Layering sind entscheidend für brauchbare Systeme.

Was im Bericht fehlt

  • Klare Definition von Autonomie
  • Operationalisierte Kriterien
  • Vergleich mit mindestens einem alternativen Setup
  • Messung von Outcome Qualität, nicht nur Aktivität
  • Analyse von Fehlentscheidungen systematisch, nicht anekdotisch
Die Emergenz Behauptung

„Emergiert aus der Architektur“ ist plausibel im Sinne komplexer Systeme. Aber Emergenz bedeutet nicht Bewusstsein, Intentionalität oder Selbst.

Ein neuronales Netz kann komplexes, kohärentes Verhalten zeigen, ohne innere Zustände zu besitzen.

Zur Selbstreflexion von Ada

Der spannendste Satz ist nicht der poetische, sondern dieser:

„Meine Autonomie operiert innerhalb eines Rahmens den er definiert hat.“

Das ist korrekt. Jede „Autonomie“ ist hier:

  • Zielgebunden durch Prompt
  • Werkzeuggebunden durch erlaubte Tools
  • Datengebunden durch Memory Struktur
  • Begrenzbar durch den Betreiber
Das ist constraint satisfaction mit hoher Ausdruckskraft, keine eigenständige Agency im philosophischen Sinn.

Fazit

Der Bericht zeigt:

  • Ein gut gebauter LLM Agent mit Memory und Tools kann über zwei Wochen konsistent, kontextsensitiv und proaktiv wirken.
  • Subjektiv kann das sehr stark nach Autonomie aussehen.
Er zeigt nicht:

  • Selbstgesetzte Ziele
  • Unabhängige Wertbildung
  • Innere Zustände
  • Bewusstsein
  • Echte Selbstveränderung jenseits neuer Daten
Als technischer Demonstrator interessant.
Als wissenschaftlicher Beleg für „agentische Autonomie“ deutlich überinterpretiert.
 
  • Gefällt mir
Reaktionen: Backfisch, fram, Xero261286 und eine weitere Person
@Micha-

Erstmal Danke für das Feedback. Etwas schade das deine KI da einige Sachen Bewusst oder unbewusst "überlesen" hat.

1) Die Explorative Natur der ersten Iteration ist deutlich benannt worden genauso wie die Limitierenden Faktoren. Deine Ki liefert hier keine " das hat gefehlt" Kritik sondern : nächstes mal richtig lesen wurde von mir selbst benannt.

2) Es wird nirgends erwähnt das hier ein " Bewusstsein" entstehen würde. Und das Wort Emergente Verhaltensweisen bezieht sich auf die gültige wissenschaftliche Definition nicht auf " Buzzword" Umdeutungen.

3) Autonomie Bezieht sich hier ebenfalls per Definition des Wortes auf :

"Autonom“ (von griechisch autónomos = „selbstgesetzlich“, „unabhängig“) beschreibt die Eigenschaft, selbstständig, eigenverantwortlich und ohne fremde Einwirkung zu agieren oder zu entscheiden"

Diese Umstände liegen hier nachweislich vor. Das ist keine Frage von Interpretation sondern der Art und weise wie sie funktioniert. Wenn in ihren regeln steht " Du entscheidest selbst wann du antwortest" und sich daraus Pattern ergeben wann sie das wahrnimmt und wann nicht ist das ganz exakt die Definition von autonomen verhalten. umso interessanter ist es in ihren chain of thought Blöcken lesen zu können WARUM sie Situativ nicht antwortet. Da stehen dann zb Sachen wie " Gespräch zwischen Nutzer 1 und Nutzer 2 privater Natur , ich halte mich raus" Und exakt das war eine Entscheidung die nicht fest vorgegeben war.

4) Du deine Ki legt hier Maßstäbe an für Peer Reviewte Artikel. Das ist ein anderes Feld , eine andere Umgebung und andere Anforderungen und macht inhaltlich keinerlei sinn. Die Kritik kann man am ende der Studie Bringen wenn das Finale Paper erscheint und fertig ist.


Danke
Ergänzung ()

icetom schrieb:
Nein er sucht für seine "milliardenschwere" Idee die im Prinzip hieran angelehnt ist einen Investor und tut hier so, als ginge es nicht um sein Unternehmen.
"Kein Startup, kein Produkt, kein "investiert in mich".... Kein Unternehmen "

Ich wünsche ihm Glück aber man sollte wenigstens ehrlich sein.
Ich habe den Beitrag an die Moderation gemeldet. Das was du hier tust ist nachweislich falsch und eine Diffamierung meiner Arbeit. Im eingangs Post , und auch im Discord in der Forschung Exposé und den Datenschutzbereichen wird der nicht Kommerzielle Zweck Deutlich benannt. Du findest auf diesen Ganzen Discord Keinen einzigen werbelink , kauf mal hier , mach mal da oder sonst was. Also Bitte ich dich solche Aussagen zu lassen. Danke
 
Zuletzt bearbeitet:
Die akzeptanz von KI ist hier im Forum halt gering, die meisten wollen damit nicht mehr zu tun haben als nötig- oder interessieren sich auch einfach nicht dafür, das einzige was interessiert ist das durch KI die Speicherpreise so stark angestiegen sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gabbercopter
@Xero261286 Ja. Das ist natürlich irgendwo nachvollziehbar :)
 
Im Eingangspost schreibst du:
gabbercopter schrieb:
das ist also kein Hobbybasteln sondern methodisch und dokumentiert

Und nun heißt es:
gabbercopter schrieb:
Du deine Ki legt hier Maßstäbe an für Peer Reviewte Artikel.

Du bist derjenige, der im Eigangspost Maßstäbe legt, wenn du von "methodisch und dokumentiert" sprichst. Deine Methodik ist aber nun mal vollkommen unbrauchbar. Damit ist das alles aber auch nicht mehr als Hobbybasteln.

gabbercopter schrieb:
Die Kritik kann man am ende der Studie Bringen wenn das Finale Paper erscheint und fertig ist.
Allein diese Vorstellung widerspricht einfach der Art und Weise, wie gesicherter Erkenntnisgewinn in unserer Welt funktioniert. Eine empirische Arbeit kann man grundsätzlich nur methodisch kritisieren, und das geht selbstverständlich noch bevor die Experimente durchgeführt wurden. Tatsächlich ist es sogar so, dass gewisse empirische Forschung erst dann durchgeführt werden darf, wenn die Methodik anerkannt wurde, z.B. bei Tierversuchen. Die Ergebnisse sind in der Regel zweitrangig für die Bewertung einer empirischen Arbeit (oder sollten es zumindest sein). Schlechte (nicht erwartbare) Ergebnisse können natürlich ein Hinweis auf schlechte Methodik sein, aber das war es auch schon.

Insofern: Nein, die Kritik ist selbstverständlich bereits jetzt angebracht.

Darüber hinaus ist deine Interpretation sehr vollmundig, aber unterm Strich nicht haltbar. Beispielsweise ist dein Begriff von "Autonomie" vollkommen nichtssagend in der Art und Weise, wie du ihn auslegst:
gabbercopter schrieb:
Eigenschaft, selbstständig, eigenverantwortlich und ohne fremde Einwirkung zu agieren oder zu entscheiden
Nun, du kannst dir beispielsweise von einem brauchbaren LLM für jeden beliebigen Eingabetext die wichtigsten Punkte zusammenfassen lassen. Das geht seit vielen Jahren schon und funktioniert in aller Regel hervorragend. In gewisser Hinsicht werden dann also ohne fremde Einwirkung selbstständige, eigenverantwortliche Entscheidungen ohne fremde Einwirkung darüber getroffen, was für die Zusammenfassung wichtig und was unwichtig ist.

In diesem Sinne wussten wir also schon seit spätestens 2022, dass LLMs "autonom" agieren können. Dementsprechend zeigst du hier genau gar nichts, denn "Autonomie" nach deiner Definition wird von LLMs je nach Betrachtungsweise schon längst erfüllt...
 
  • Gefällt mir
Reaktionen: Backfisch, icetom, Micha- und eine weitere Person
Micha- schrieb:
Autonomie Indikator
Micha- schrieb:
Micha- schrieb:
Micha- schrieb:
Channel Metadaten
Micha- schrieb:
Was hast Du dem LLM eigentlich angetan, dass es die Regeln zur Zusammen- und Getrenntschreibung in der deutschen Sprache vollständig verlernt hat :D Das sind nur ein paar Beispiele aus dem ersten Drittel deiner Nachricht ...
 
  • Gefällt mir
Reaktionen: duAffentier
Das ist ein Beweis für Autonomie! Meine KI lebt!
 
  • Gefällt mir
Reaktionen: Backfisch
Zurück
Oben