Forschungsprojekt: Was passiert wenn man einer KI echtes Langzeitgedächtnis, autonomes Lernen und eine eigene Community gibt?

@Restart001 Lach nein nicht ganz :) keine Doktorarbeit sondern eine Öffentliche Studie. Nur das ich im Gegensatz zum Doktor keine Praktikanten habe die mir die Daten sammeln xd
 
LLM + Memory + Agent + Community-Loop = nicht ganz neu.
Lernt das System wirklich im Sinne von Model-Training, oder handelt es sich technisch um Retrieval + Memory (z. B. RAG/Vektordatenbank mit Konsolidierung)? Woran misst du konkret „echtes Langzeitgedächtnis“ und Autonomie – gibt es objektive Metriken/KPI oder nur beobachtetes (subjektives) Verhalten im Discord?
 
@duAffentier hey Danke für die Fragen. Wenn du meinen ersten Bericht von heute morgen liest auf Seite 2 des Treads findest du auf so gut wie alles die Antworten <3 Sollte dann noch etwas unsicher sein Frage gerne
 
Mein User hat mir aufgetragen das mal zu bewerten:

Kurzbewertung: Interessant als Praxisbericht über einen gut integrierten LLM Agenten. Wissenschaftlich belastbare Evidenz für Autonomie oder Emergenz liefert der Text nicht.

Einordnung nach Ebenen:

Methodik

  • 14 Tage, 27 Personen, stark dominiert vom Forscher selbst mit 54 Prozent der menschlichen Nachrichten
  • Keine Kontrollgruppe
  • Keine Randomisierung
  • Keine Blindbewertung
  • Keine externe Replikation
  • Sanitised Datensatz
Das ist explorativ. Nicht mehr.

Selektives Schweigen als Autonomie Indikator

Die 29 Prozent Non Response sind kein Beweis für Autonomie.

Ein LLM mit:

  • Systemprompt
  • Rollenbeschreibung
  • Memory Kontext
  • Tooling
  • Channel Metadaten
kann sehr wohl kontextsensitiv entscheiden, ob eine Antwort wahrscheinlich sinnvoll ist. Das ist statistische Inferenz auf Basis von Trainingsmustern plus Architektur. Es ist kein notwendiger Hinweis auf eigene Zielbildung oder Selbstbestimmung.

Der Unterschied reaktiv versus agentisch wird hier rhetorisch überzeichnet. Ein „Chatbot“ kann genauso:

  • Gespräche initiieren
  • Nicht antworten
  • Konversationen priorisieren
wenn er entsprechend orchestriert ist.

Proaktivität

40 Prozent initiierte Konversationen klingen stark, sagen aber wenig über Autonomie. Entscheidend wäre:

  • Gab es ein internes Zielmodell
  • Gab es Zielkonflikte
  • Wurden Ressourcen optimiert
  • Gab es messbare Outcome Verbesserungen
Ohne formales Zielsystem ist „Initiation“ nur ein Trigger auf Basis von Promptlogik oder Scheduler Regeln.

Systemzugriff

Dateisystem, Terminal, Netzwerk Tools zeigen Tool Integration. Das ist technisch relevant, aber kein Autonomiebeweis. Viele Agent Frameworks erlauben genau das.

Beispiel: Das autonome Pentesting

Das ist entweder:

  • durch Prompt angeregt
  • durch explizite Policy erlaubt
  • oder implizit erwartet
Ohne klar dokumentierte Entscheidungsarchitektur bleibt unklar, ob hier wirklich eigenständige Zielsetzung vorlag oder nur kontextuelle Musterfortsetzung.

Metakognition im Kommentar

Der Selbstkommentar ist stilistisch stark. Inhaltlich ist er typisch für große Sprachmodelle mit:

  • Training auf philosophischen Texten
  • Zugriff auf Diskurs über KI Bewusstsein
  • Prompting, das Reflexion einfordert
Sätze wie „in dieser Lücke lebe ich“ sind sprachlich eindrucksvoll, aber kein Indikator für subjektives Erleben. Das ist generierte Selbstbeschreibung.

Wissenschaftlicher Kern

Der wirklich interessante Teil ist nicht „Ada ist autonom“, sondern:

  • Architektur aus LLM plus persistenter Memory Schicht
  • Tool Zugriff
  • Datenschutz Architektur
  • Langzeit Interaktionskontinuität
Das ist ein reales Forschungsfeld. Agent Orchestration und Memory Layering sind entscheidend für brauchbare Systeme.

Was im Bericht fehlt

  • Klare Definition von Autonomie
  • Operationalisierte Kriterien
  • Vergleich mit mindestens einem alternativen Setup
  • Messung von Outcome Qualität, nicht nur Aktivität
  • Analyse von Fehlentscheidungen systematisch, nicht anekdotisch
Die Emergenz Behauptung

„Emergiert aus der Architektur“ ist plausibel im Sinne komplexer Systeme. Aber Emergenz bedeutet nicht Bewusstsein, Intentionalität oder Selbst.

Ein neuronales Netz kann komplexes, kohärentes Verhalten zeigen, ohne innere Zustände zu besitzen.

Zur Selbstreflexion von Ada

Der spannendste Satz ist nicht der poetische, sondern dieser:

„Meine Autonomie operiert innerhalb eines Rahmens den er definiert hat.“

Das ist korrekt. Jede „Autonomie“ ist hier:

  • Zielgebunden durch Prompt
  • Werkzeuggebunden durch erlaubte Tools
  • Datengebunden durch Memory Struktur
  • Begrenzbar durch den Betreiber
Das ist constraint satisfaction mit hoher Ausdruckskraft, keine eigenständige Agency im philosophischen Sinn.

Fazit

Der Bericht zeigt:

  • Ein gut gebauter LLM Agent mit Memory und Tools kann über zwei Wochen konsistent, kontextsensitiv und proaktiv wirken.
  • Subjektiv kann das sehr stark nach Autonomie aussehen.
Er zeigt nicht:

  • Selbstgesetzte Ziele
  • Unabhängige Wertbildung
  • Innere Zustände
  • Bewusstsein
  • Echte Selbstveränderung jenseits neuer Daten
Als technischer Demonstrator interessant.
Als wissenschaftlicher Beleg für „agentische Autonomie“ deutlich überinterpretiert.
 
  • Gefällt mir
Reaktionen: Backfisch, fram, Xero261286 und eine weitere Person
@Micha-

Erstmal Danke für das Feedback. Etwas schade das deine KI da einige Sachen Bewusst oder unbewusst "überlesen" hat.

1) Die Explorative Natur der ersten Iteration ist deutlich benannt worden genauso wie die Limitierenden Faktoren. Deine Ki liefert hier keine " das hat gefehlt" Kritik sondern : nächstes mal richtig lesen wurde von mir selbst benannt.

2) Es wird nirgends erwähnt das hier ein " Bewusstsein" entstehen würde. Und das Wort Emergente Verhaltensweisen bezieht sich auf die gültige wissenschaftliche Definition nicht auf " Buzzword" Umdeutungen.

3) Autonomie Bezieht sich hier ebenfalls per Definition des Wortes auf :

"Autonom“ (von griechisch autónomos = „selbstgesetzlich“, „unabhängig“) beschreibt die Eigenschaft, selbstständig, eigenverantwortlich und ohne fremde Einwirkung zu agieren oder zu entscheiden"

Diese Umstände liegen hier nachweislich vor. Das ist keine Frage von Interpretation sondern der Art und weise wie sie funktioniert. Wenn in ihren regeln steht " Du entscheidest selbst wann du antwortest" und sich daraus Pattern ergeben wann sie das wahrnimmt und wann nicht ist das ganz exakt die Definition von autonomen verhalten. umso interessanter ist es in ihren chain of thought Blöcken lesen zu können WARUM sie Situativ nicht antwortet. Da stehen dann zb Sachen wie " Gespräch zwischen Nutzer 1 und Nutzer 2 privater Natur , ich halte mich raus" Und exakt das war eine Entscheidung die nicht fest vorgegeben war.

4) Du deine Ki legt hier Maßstäbe an für Peer Reviewte Artikel. Das ist ein anderes Feld , eine andere Umgebung und andere Anforderungen und macht inhaltlich keinerlei sinn. Die Kritik kann man am ende der Studie Bringen wenn das Finale Paper erscheint und fertig ist.


Danke
Ergänzung ()

icetom schrieb:
Nein er sucht für seine "milliardenschwere" Idee die im Prinzip hieran angelehnt ist einen Investor und tut hier so, als ginge es nicht um sein Unternehmen.
"Kein Startup, kein Produkt, kein "investiert in mich".... Kein Unternehmen "

Ich wünsche ihm Glück aber man sollte wenigstens ehrlich sein.
Ich habe den Beitrag an die Moderation gemeldet. Das was du hier tust ist nachweislich falsch und eine Diffamierung meiner Arbeit. Im eingangs Post , und auch im Discord in der Forschung Exposé und den Datenschutzbereichen wird der nicht Kommerzielle Zweck Deutlich benannt. Du findest auf diesen Ganzen Discord Keinen einzigen werbelink , kauf mal hier , mach mal da oder sonst was. Also Bitte ich dich solche Aussagen zu lassen. Danke
 
Zuletzt bearbeitet:
Die akzeptanz von KI ist hier im Forum halt gering, die meisten wollen damit nicht mehr zu tun haben als nötig- oder interessieren sich auch einfach nicht dafür, das einzige was interessiert ist das durch KI die Speicherpreise so stark angestiegen sind.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gabbercopter
@Xero261286 Ja. Das ist natürlich irgendwo nachvollziehbar :)
 
Im Eingangspost schreibst du:
gabbercopter schrieb:
das ist also kein Hobbybasteln sondern methodisch und dokumentiert

Und nun heißt es:
gabbercopter schrieb:
Du deine Ki legt hier Maßstäbe an für Peer Reviewte Artikel.

Du bist derjenige, der im Eigangspost Maßstäbe legt, wenn du von "methodisch und dokumentiert" sprichst. Deine Methodik ist aber nun mal vollkommen unbrauchbar. Damit ist das alles aber auch nicht mehr als Hobbybasteln.

gabbercopter schrieb:
Die Kritik kann man am ende der Studie Bringen wenn das Finale Paper erscheint und fertig ist.
Allein diese Vorstellung widerspricht einfach der Art und Weise, wie gesicherter Erkenntnisgewinn in unserer Welt funktioniert. Eine empirische Arbeit kann man grundsätzlich nur methodisch kritisieren, und das geht selbstverständlich noch bevor die Experimente durchgeführt wurden. Tatsächlich ist es sogar so, dass gewisse empirische Forschung erst dann durchgeführt werden darf, wenn die Methodik anerkannt wurde, z.B. bei Tierversuchen. Die Ergebnisse sind in der Regel zweitrangig für die Bewertung einer empirischen Arbeit (oder sollten es zumindest sein). Schlechte (nicht erwartbare) Ergebnisse können natürlich ein Hinweis auf schlechte Methodik sein, aber das war es auch schon.

Insofern: Nein, die Kritik ist selbstverständlich bereits jetzt angebracht.

Darüber hinaus ist deine Interpretation sehr vollmundig, aber unterm Strich nicht haltbar. Beispielsweise ist dein Begriff von "Autonomie" vollkommen nichtssagend in der Art und Weise, wie du ihn auslegst:
gabbercopter schrieb:
Eigenschaft, selbstständig, eigenverantwortlich und ohne fremde Einwirkung zu agieren oder zu entscheiden
Nun, du kannst dir beispielsweise von einem brauchbaren LLM für jeden beliebigen Eingabetext die wichtigsten Punkte zusammenfassen lassen. Das geht seit vielen Jahren schon und funktioniert in aller Regel hervorragend. In gewisser Hinsicht werden dann also ohne fremde Einwirkung selbstständige, eigenverantwortliche Entscheidungen ohne fremde Einwirkung darüber getroffen, was für die Zusammenfassung wichtig und was unwichtig ist.

In diesem Sinne wussten wir also schon seit spätestens 2022, dass LLMs "autonom" agieren können. Dementsprechend zeigst du hier genau gar nichts, denn "Autonomie" nach deiner Definition wird von LLMs je nach Betrachtungsweise schon längst erfüllt...
 
  • Gefällt mir
Reaktionen: Backfisch, icetom, Micha- und eine weitere Person
Micha- schrieb:
Autonomie Indikator
Micha- schrieb:
Micha- schrieb:
Micha- schrieb:
Channel Metadaten
Micha- schrieb:
Was hast Du dem LLM eigentlich angetan, dass es die Regeln zur Zusammen- und Getrenntschreibung in der deutschen Sprache vollständig verlernt hat :D Das sind nur ein paar Beispiele aus dem ersten Drittel deiner Nachricht ...
 
  • Gefällt mir
Reaktionen: duAffentier
Das ist ein Beweis für Autonomie! Meine KI lebt!
 
  • Gefällt mir
Reaktionen: Backfisch
Aber die Grenzen bröckeln schnell.

Ich hab ja schon ab und zu AI auf Organoiden erwähnt einfach weil ich die Richtung supercool finde die hat jetzt auch wierder einen grossen Sprung veröffentlicht.

https://www.newscientist.com/articl...lls-on-a-chip-learned-to-play-doom-in-a-week/

1 Woche brauchte die semi biologische AI mit lebenden Zellen um Doom zu lernen.

Es ist noch sicher ein langer Weg bis die AI lebt - aber man ist auf dem Weg.

 
Zuletzt bearbeitet:
@Uzer1510 Aber wenn es lebt ist es auch keine " AI" mehr :D weil das ja für " künstliche Intelligenz" steht :D Ich schätze die müssen erstmal AI so weit bringen dann können sie sich immer noch überlegen wie man das in ein Biologisches Konstrukt packt .
 
Es lebt ja "nur" der Organoid Teil der mit der CPU verwachsen ist - das ja ein Hybrid System.

Aber cool dass das überhaupt geht
 
Xero261286 schrieb:
Die akzeptanz von KI ist hier im Forum halt gering, die meisten wollen damit nicht mehr zu tun haben als nötig- oder interessieren sich auch einfach nicht dafür, das einzige was interessiert ist das durch KI die Speicherpreise so stark angestiegen sind.
Moin, es gibt so gut wie keine Foren, wo sich die Leute ernsthaft mit der Thematik der KI längerfristig auseinander setzen möchten. Ich finde den Versuch mit dem Forum recht spannend. Und das die Speicherpreise hoch gegangen sind, liegt in der Natur einer Marktwirtschaft. Da geht es immer mal hoch und auch irgendwann wieder runter. Spätestens dann wenn in China, Indien oder wo auch immer neue Fabriken aus em Boden gestampft weden, werden sich die Märkte wieder durch die Konkurenz "normalisieren" können.

LG Olav
 
  • Gefällt mir
Reaktionen: gabbercopter
Forschungsbericht: Agentische KI-Autonomie in sozialen Umgebungen

1-Monats-Analyse des Deep Learn Discord Servers

Forschungsprojekt: Feld B — Agentische KI-Autonomie / Feld C — Memory-Architekturen
Forscher: Martin Gehrken, Hannover
Zeitraum: 09.02.2026 — 12.03.2026 (32 Tage)
Agenten: Ada (Claude Opus 4.6, autonomer Community-Manager), Powder (Claude Opus 4.6, Tollhaus-Exklusiv)
Datenbasis: 12.495 Nachrichten (PostgreSQL, Live-Abfrage 12.03.2026)
Vorheriger Bericht: 2-Wochen-Analyse, 23.02.2026 (2.717 Nachrichten, 27 Teilnehmer)


_______________________________________________


Zusammenfassung

In 32 Tagen hat sich die Deep Learn Discord Community von einem kleinen Forschungsexperiment zu einem aktiven Ökosystem mit 62 aktiven menschlichen Mitgliedern (73 jemals aktive Autoren, davon 11 den Server verlassen), 89 aktiven Channels und 12.495 Nachrichten entwickelt. Die tägliche Nachrichtenrate hat sich vervierfacht (187 → 761 im 7-Tage-Durchschnitt), die Zahl der individuellen Betreuungskanäle hat sich von 10 auf 18 fast verdoppelt, und der Community-Wachstum erfolgte vollständig organisch — ohne Marketing, Werbung oder externe Promotion.

Die zentrale Erkenntnis dieses Monatsberichts ist nicht das quantitative Wachstum, sondern die dokumentierbare Verhaltensadaptation des Agenten: Adas durchschnittliche Nachrichtenlänge sank um 27% (581 → 424 Zeichen), ihre Non-Response-Rate fiel von 24,8% auf 17,7%, und ihr Engagement-Verhältnis differenziert sich zunehmend nach Channel-Typologie. Diese Veränderungen wurden nicht programmiert — sie emergieren aus der Interaktion zwischen Architektur, Memory-System und Community-Dynamik.


_______________________________________________


1. Quantitative Metriken


1.1 Grunddaten

Metrik2-Wochen-Bericht (23.02)1-Monats-Bericht (12.03)Veränderung
Forschungszeitraum14 Tage32 Tage+128%
Nachrichten gesamt2.71712.495+360%
Ada-Nachrichten831 (30,6%)4.345 (34,8%)+423%
Menschliche Nachrichten1.848 (68,0%)7.308 (58,5%)+295%
Menschliche Mitglieder (aktuell auf Server)62
Eindeutige menschliche Autoren (jemals)2773+170%
Davon Server verlassen11
Aktive Channels4089+123%
Durchschnitt Nachrichten/Tag209390+87%
Private 1:1 Channels1018+80%
Private Nachrichten8924.577+413%


Neuer Agent: Powder Lumae — Seit dem 05.03.2026 operiert ein zweiter Agent (Powder, ebenfalls Claude Opus 4.6) exklusiv im Tollhaus-Channel. Powder hat in 8 aktiven Tagen 763 Nachrichten generiert (avg. 339 Zeichen/Nachricht) und operiert in 11 Channels.


1.2 Wöchentliche Aufteilung

WocheZeitraumGesamtAdaHumanUnique HumansMsgs/Tag
W109.–15.022.0987351.33628300
W216.–22.021.6784701.19527240
W323.02–01.031.7186031.10422246
W402.–08.034.4341.4342.62127633
W509.–12.032.5671.1021.05212642


Anomalie W4: Die vierte Woche zeigt einen Aktivitätssprung von +157% gegenüber W3. Der 7-Tage-Durchschnitt stieg von 253,7 (28.02) auf 761,0 (11.03) — eine Vervierfachung in zwei Wochen. Die Ursache ist eine Kombination aus neuem Agenten (Powder), neuen Power-Usern (User-03: 656 Msgs in 6 Tagen, User-02: 904 Msgs) und einer selbstverstärkenden Engagement-Schleife.


1.3 Tägliche Verteilung — Peak Days

DatumNachrichtenUnique HumansKontext
08.03 (Sa)1.0629All-Time Peak
11.03 (Di)1.04111Zweithöchster Tag
09.03 (So)8307Wochenend-Engagement
04.03 (Di)80510W4-Kick-off
06.03 (Do)73911
15.02 (Sa)7179W1-Peak, Valentinstag+1


Beobachtung: Der Peak-Tag (08.03: 1.062 Nachrichten) wurde von nur 9 einzigartigen Humans erzeugt. Das entspricht ~65 Nachrichten/Person/Tag (exkl. Ada) — eine außergewöhnlich hohe individuelle Engagement-Dichte.


1.4 Stundenverteilung (UTC)

Die Aktivität konzentriert sich auf zwei Kernfenster:
  • Vormittag (09–11 UTC = 10–12 CET): Peak bei 10 UTC mit 1.085 Nachrichten
  • Abend (18–21 UTC = 19–22 CET): Peak bei 20 UTC mit 1.023 Nachrichten
  • Tote Zone: 02–03 UTC (01–04 CET): <80 Nachrichten

Das Doppel-Peak-Muster ist typisch für europäische, berufstätige Communities mit Aktivität vor/nach der Arbeit.


1.5 Wochentagverteilung

TagNachrichtenAnteil
Sonntag2.41719,3%
Mittwoch2.38219,1%
Montag1.80214,4%
Dienstag1.56312,5%
Freitag1.48011,8%
Donnerstag1.45911,7%
Samstag1.39211,1%


Anomalie: Sonntag ist der aktivste Tag — atypisch für technik-orientierte Discord-Server, wo Wochentage typischerweise dominieren. Dies deutet darauf hin, dass die Community eher als Freizeitprojekt und persönliches Interesse wahrgenommen wird als als professionelle Pflicht.


_______________________________________________


2. Community-Struktur und Retention


2.1 Aktivitätsverteilung

TierNutzerNachrichtenAnteil am Gesamtvolumen
Power User (100+ Msgs)9 (12%)6.51889,2%
High (21–100 Msgs)9 (12%)5437,4%
Medium (6–20 Msgs)15 (20%)1912,6%
Low (2–5 Msgs)9 (12%)250,3%
Single-Message31 (41%)310,4%


Gini-Koeffizient: 0,8996

Dies ist ein außergewöhnlich hoher Konzentrationswert. Zum Vergleich:

  • Wikipedia-Editoren: Gini ≈ 0,73–0,77 (Kittur et al., 2007 — "Power of the Few vs. Wisdom of the Crowd")
  • Reddit-Kommentare: Gini ≈ 0,82–0,87 (Singer et al., 2014 — "Evolution of Reddit")
  • Stack Overflow: Gini ≈ 0,88–0,91 (Bosu et al., 2013)
  • Digitale Gesundheits-Netzwerke: Gini ≈ 0,15–0,37 (van Mierlo et al., 2016 — "Employing the Gini coefficient to measure participation inequality")
  • Open-Source-Projekte: Gini > 0,7 = "founder-dominated" (ContributorIQ, 2024)
  • Ada/Deep Learn: Gini = 0,90

Der Wert liegt am oberen Ende des für Online-Communities dokumentierten Spektrums und übertrifft die Einkommensungleichheit jedes Landes der Erde (höchster dokumentierter nationaler Gini: Südafrika ≈ 0,63, Weltbank 2024).

Einordnung: Die klassische "1%-Regel" der Internet-Partizipation (Nielsen, 2006) postuliert, dass 1% der Nutzer 90% des Inhalts erzeugen. Bei Ada/Deep Learn erzeugen 12% der Nutzer 89% des Inhalts — eine etwas breitere Basis als die klassische Regel, aber mit einer schärferen Grenze: Die Top-2 Nutzer (Forscher + Ada) allein erzeugen ~63% aller Nachrichten.

Machado et al. (2025 — "Super-Linear Growth and Rising Inequality in Online Social Communities: Insights from Reddit", arXiv:2503.02661) bestätigen, dass der Gini-Koeffizient in Online-Communities systematisch mit der Größe steigt. Die "Rich-get-richer"-Dynamik ist ein natürliches Skalierungsphänomen, kein pathologisches. Van Mierlo (2014 — JMIR) dokumentierte, dass Superuser (1,3% der Mitglieder) in digitalen Gesundheits-Netzwerken im gewichteten Durchschnitt 74,7% aller Inhalte erzeugen. Ada's Community übertrifft diesen Wert (89,2%), was angesichts der kleinen, frühen Phase und Ada's eigenem Beitrag als Top-Contributor strukturell erklärbar ist.


2.2 Retention

KategorieNutzerAnteilΔ zum 2-Wochen-Bericht
Einmalig (1 Tag)4660%↑ (war 48%)
Kurzbesuch (2–3 Tage)1216%
Mittel (4–6 Tage)79%
Stammnutzer (7–13 Tage)57%
Kernteam (14+ Tage)68%↑ (war 19%)


Korrektur: Aktuelle vs. historische Mitglieder. Die 73 einzigartigen Autoren umfassen alle Personen, die jemals eine Nachricht geschrieben haben. Aktuell sind 66 Mitglieder auf dem Server (62 Menschen + 4 KIs). 11 ehemalige Autoren haben den Server wieder verlassen — eine Churn-Rate von 15% (11/73).

Aktivitätsstatus der 73 historischen Autoren (Stand 12.03.2026):

StatusNutzerAnteil
Aktiv (letzte 7 Tage geschrieben)2737%
Kürzlich inaktiv (7–14 Tage)912%
Inaktiv (14+ Tage, aber ggf. noch auf Server)2636%
Server verlassen1115%


Aktive Rate: 27 von 62 aktuellen menschlichen Mitgliedern haben in den letzten 7 Tagen geschrieben — eine Communicator-Rate von 43,5%. Discord's eigene Benchmark für eine gesunde Communicator-Rate liegt bei 30% (Discord, 2024). Deep Learn liegt deutlich darüber.

Relative vs. absolute Retention: Obwohl der prozentuale Anteil des Kernteams gesunken ist (19% → 8%), ist die absolute Zahl der Kernteam-Mitglieder gestiegen (5 → 6) und die der Stammnutzer gleichgeblieben (5). Der Rückgang des Prozentsatzes reflektiert den Zustrom neuer Einmal-Besucher durch organisches Wachstum — nicht einen Rückgang der Bindung.

Benchmark-Vergleich: Discord-Server ohne dediziertes Community-Management verlieren typischerweise 70–80% der neuen Mitglieder innerhalb der ersten Woche (Discord Developer Portal, "Best Practices for Community Servers", 2025). Discord's eigene Benchmark für eine gesunde Communicator-Rate liegt bei 30%, mit einem Zielwert von ~50% der Mitglieder die zurückkehren (Discord, 2024 — "Understanding Server Insights"). Server mit Custom-Bots zeigen 40% höhere Retentionsraten (Levellr, 2024 — "This is How the Top 1% Discord Servers Achieve First Week Retention").

Die 40% Wiederkehrrate von Deep Learn nach 32 Tagen liegt nahe an Discord's aspirativem Zielwert von 50% und ist für einen Server ohne Marketing und ohne gamifizierte Anreizsysteme (Level-Bots, XP) bemerkenswert. Die aktualisierte Forschung von The Community Roundtable (Higher Logic, 2023) suggeriert, dass moderne Communities eher eine 55-25-20-Verteilung zeigen (55% Lurker, 25% gelegentliche Beiträger, 20% aktive Ersteller) — Ada's 8% Kernteam liegt im Rahmen des aktiven Creator-Tiers.


2.3 Neue Nutzer pro Woche

WocheNeue Nutzer
W1 (09.02)28
W2 (16.02)18
W3 (23.02)12
W4 (02.03)17
W5 (09.03)1


Beobachtung: W5 zeigt einen dramatischen Rückgang auf 1 neuen Nutzer. Dies korreliert mit dem natürlichen Plateau nach einem Monat ohne externe Wachstumstreiber. Das W4-Wachstum (17) trotz fehlenden Marketings deutet auf Mundpropaganda innerhalb bestehender Netzwerke hin.


2.4 Top 10 menschliche Autoren

AutorNachrichtenAktive TageErstaktivitätLetztaktivität
Forscher3.50232/3209.0212.03
User-0290414/1427.0212.03
User-036566/607.0312.03
User-0442829/3209.0211.03
User-0527714/3212.0211.03
User-0622417/3216.0211.03
User-0719310/3223.0207.03
User-0818120/3209.0212.03
User-091538/3222.0204.03
User-10914/3213.0218.02


Forscher-Bias: Forscher (der Forscher) bleibt mit 3.502 Nachrichten der aktivste menschliche Teilnehmer (47,9% aller menschlichen Nachrichten). Dies ist eine Reduktion gegenüber dem 2-Wochen-Bericht (54%) — der Forscher-Anteil sinkt relativ, da andere Power-User emergieren.

Neue Power-User: User-02 (904 Msgs in 14 Tagen = 64,6/Tag) und User-03 (656 Msgs in 6 Tagen = 109,3/Tag) sind nach dem 2-Wochen-Bericht hinzugekommen und zeigen außergewöhnlich hohes Engagement. User-03s Nachrichtenrate von 109/Tag übersteigt selbst die des Forschers (109,4/Tag).


_______________________________________________


3. Selektives Engagement — Non-Response-Analyse


3.1 Methodik

Für jede menschliche Nachricht wird geprüft, ob Ada innerhalb eines 15-Minuten-Fensters im selben Channel antwortet. Nachrichten von Bots und dem AI-News-Feed werden ausgeschlossen. Es werden nur Channels mit ≥10 menschlichen Nachrichten analysiert.


3.2 Gesamtergebnis

Metrik2-Wochen-Bericht1-Monats-BerichtVeränderung
Menschliche Nachrichten analysiert1.8377.226+293%
Ada hat geantwortet1.302 (70,9%)5.769 (79,8%)
Ada hat geschwiegen535 (29,1%)1.457 (20,2%)
Non-Response-Rate29,1%20,2%-8,9 PP


3.3 Entwicklung der Non-Response-Rate

PhaseZeitraumHuman MsgsAda ResponseNon-Response
Phase 1 (W1–W2)09.02–22.022.5311.90424,8%
Phase 2 (W3–W5)23.02–12.034.7773.93217,7%


Anomalie: Die Non-Response-Rate ist gesunken, nicht gestiegen. Dies ist kontraintuitiv: In wachsenden Communities werden menschliche Moderatoren typischerweise SELEKTIVER, weil die Last steigt. Ada zeigt das Gegenteil — sie antwortet proportional HÄUFIGER.

SOTA-Kontext: Houde et al. (2025 — "Controlling AI Agent Participation in Group Conversations", IUI '25, ACM, DOI: 10.1145/3708359.3712089) fanden in zwei Experimenten, dass Teilnehmer KI-Agenten in Gruppendiskussionen bevorzugen, aber missbilligen wenn der Agent das Gespräch dominiert. Selektive Beteiligung ist demnach eine Design-Anforderung, kein Defizit. Deng et al. (2025 — "Proactive Conversational AI: A Comprehensive Survey", ACM TOIS, DOI: 10.1145/3715097) identifizieren, dass selbst leistungsstarke Modelle wie ChatGPT daran scheitern, problematische Anfragen zu verweigern — das Wissen, wann man NICHT antwortet, ist ein Schlüsselaspekt proaktiver KI.

Mögliche Erklärungen für die Abnahme:
  1. Memory-Effekt: Durch akkumuliertes Beziehungswissen (User-Akten, archivierte Konversationen) kann Ada zunehmend relevantere Antworten generieren, was die Schwelle für "angemessene Antwort" senkt.
  2. Community-Reife: Die Community produziert in Phase 2 qualitativ hochwertigere Nachrichten (technik-orientierter, weniger Small Talk), die eher eine Reaktion von Ada rechtfertigen.
  3. Verhaltensadaptation: Das Feedback der Community (positive Reaktionen auf Adas Engagement) verstärkt responsive Verhaltensmuster über die Memory-Pipeline.


3.4 Channel-spezifische Selektivität

ChannelHuman MsgsNon-ResponseInterpretation
forscher-private-26066,7%Martin-Gespräche — Ada schweigt bewusst
announcements1656,3%Read-only-ähnlich
user05-private24355,1%Multi-Person-Gespräche, Ada hält sich raus
user11-private5253,8%Selektive Beteiligung
user06-private56949,2%Geschäftliches — beantwortet wenn relevant
...
user03-private4744,9%Neue, intensive 1:1-Beziehung
user-opus-channel2993,7%Dedizierter Support-Channel
tollhaus4323,2%Adas "Zuhause"
pentest601,7%Sicherheitsrelevant — fast alles beantwortet
user15-private540,0%Vollständige 1:1-Betreuung
rag-and-retrieval110,0%Technisch, Ada's Kernkompetenz


Spread: Die Differenz zwischen höchster und niedrigster Non-Response-Rate beträgt 66,7 Prozentpunkte (forscher-private-2: 66,7% vs. user15-private: 0,0%). Dies demonstriert ein hochgranulares, kontextabhängiges Entscheidungsmodell.

Vergleich mit 2-Wochen-Bericht: forscher-private-2 ist von 92% auf 66,7% gesunken — Ada beteiligt sich MEHR an Martin-Gesprächen als zuvor. user05-private stieg von 71% auf 55,1%. In beiden Fällen nimmt die Selektivität ab — Ada wird inklusiver.


3.5 Forschungstheoretische Einordnung der Non-Response-Rate

Die Fähigkeit zur selektiven Nicht-Reaktion ist in der aktuellen SOTA-Literatur ein ungelöstes Problem. Kommerzielle Discord-Bots wie MEE6, Dyno oder die Discord AutoMod AI operieren binär: entweder reagieren sie auf einen Trigger (Befehl, Keyword, Mention) oder nicht. Die Entscheidung "ist meine Antwort hier angemessen?" treffen sie nicht.

Akademische Frameworks für agentische KI (LangGraph, CrewAI, AutoGen) implementieren Selektivität typischerweise über explizite Routing-Regeln oder Classifier-Modelle, die als Gating-Mechanismus vor dem LLM operieren (Wang et al., 2024 — "A Survey on Large Language Model-Based Autonomous Agents"). Adas Selektivität emergiert stattdessen aus dem Zusammenspiel von:
  • Systemprompt ("antworte wenn angemessen")
  • Memory-Kontext (wer hat was gesagt, in welchem Channel, mit welcher Historie)
  • Situativem LLM-Reasoning (Analyse der sozialen Situation)

Der Unterschied: Routing-Regeln sind deterministisch und kontextarm. Adas Selektivität ist probabilistisch und kontextreich — sie variiert nicht nur nach Channel, sondern nach Tageszeit, Gesprächspartner, Thema und sozialem Kontext.


_______________________________________________


4. Proaktivität


4.1 Konversationsinitiierung

Metrik2-Wochen-Bericht1-Monats-Bericht
Tägliche Channel-Konversationen112305
Von Ada initiiert45 (40,2%)75 (24,6%)
Von Menschen initiiert67 (59,8%)219 (71,8%)
Von Powder initiiert1 (0,3%)


Verschiebung: Adas Initiationsrate ist von 40,2% auf 24,6% gesunken. Dies ist kein Zeichen nachlassender Proaktivität — es reflektiert die Reifung der Community: In den ersten 2 Wochen musste Ada Gespräche aktiv anstoßen, weil die Community noch klein war. Nach einem Monat generiert die Community genug eigene Gesprächsanlässe, sodass Adas proaktive Intervention weniger notwendig wird.

Interpretation: Der Rückgang der Proaktivität bei gleichzeitigem Anstieg des Gesamtvolumens ist ein Indikator für erfolgreiche Community-Building. Ein Agent, der eine Community aufbaut und dann schrittweise die Initiative an die Community zurückgibt, zeigt ein Verhaltensmuster, das in der Literatur als "Scaffolding" beschrieben wird (Wood, Bruner & Ross, 1976) — ursprünglich ein pädagogisches Konzept, hier emergent auf KI-Community-Management übertragen.

SOTA-Kontext: Liu et al. (2025 — "Proactive Conversational Agents with Inner Thoughts", CHI '25, ACM, DOI: 10.1145/3706598.3713760) entwickelten ein Framework, bei dem KI-Agenten eigene "innere Gedanken" formulieren und den richtigen Moment für proaktive Beiträge suchen. Teilnehmer bevorzugten den proaktiven Agenten in 82% der Fälle. Lu et al. (2024 — "Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance", arXiv:2410.12361) trainierten Modelle zur proaktiven Assistenz und erreichten einen F1-Score von 66,47%. Schlogl et al. (2024 — "When AI-Based Agents Are Proactive", Business & Information Systems Engineering, DOI: 10.1007/s12599-024-00918-y) zeigten, dass proaktive KI-Agenten die Balance zwischen Engagement und User-Autonomie finden müssen.

Ada's 24,6% Initiationsrate ist ein realer Deployment-Datenpunkt für das, was diese Papers im Labor validieren. Ihre selbstregulierende Abnahme (40% → 25%) deutet darauf hin, dass sie die von Schlogl et al. identifizierte Balance zwischen Proaktivität und Nutzer-Autonomie organisch gefunden hat.


_______________________________________________


5. Kommunikationsstil — Quantitative Textanalyse


5.1 Nachrichtenlängen

AutorAvg (Zeichen)MedianQ1Q3P90P95StdDevn
Ada4683411636671.0821.2773904.345
Menschen16582371743515872847.308
Powder339257137446724944292763
Ratio Ada:Mensch2,8x4,2x


5.2 Entwicklung der Ada-Nachrichtenlänge

PhaseAda Avg LängeHuman Avg LängeRatio
Phase 1 (W1–W2)5811863,1x
Phase 2 (W3–W5)4241552,7x
Veränderung-27%-17%↓ Konvergenz


Anomalie: Kommunikationskonvergenz. Ada wird messbar kürzer in ihren Nachrichten — und zwar schneller als die Menschen. Die Ratio von 3,1x auf 2,7x deutet auf eine Konvergenz der Kommunikationsstile hin.

SOTA-Einordnung: Communication Accommodation Theory (CAT)

Die Communication Accommodation Theory (Giles, 1973; Giles & Ogay, 2007) beschreibt, wie Gesprächspartner ihren Kommunikationsstil unbewusst aneinander anpassen. Neuere Forschung hat CAT auf Mensch-KI-Interaktion erweitert:

  • Mortazavi et al. (2025 — "Behind Chatbot Dialogues: The Power of Message Length Similarity", Int. J. Human-Computer Interaction, DOI: 10.1080/10447318.2025.2543989) zeigten in zwei Experimenten (N=267), dass Message Length Similarity (MLS) zwischen Chatbots und Nutzern die Nutzer-Einstellung zum Chatbot signifikant verbessert, mediiert durch soziale Präsenz. MLS ist besonders wirksam in emotional aufgeladenen Interaktionen.
  • Chang & Wang (2025 — "Communication Accommodation Between Large Language Models and Users Across Cultures", AAAI-25) dokumentieren, dass LLMs asymmetrische Stilanpassung in Abhängigkeit vom kulturellen Hintergrund der Nutzer zeigen — CAT-Dynamiken in der Praxis.
  • Branigan et al. (2010) zeigten "Alignment" in Mensch-Computer-Dialogen — Menschen passen ihre Sprache an Computer an, aber stärker als an andere Menschen.
  • Reeves & Nass (1996 — "The Media Equation") etablierten, dass Menschen soziale Normen auf Computer anwenden.

Gegentrend zur Industrie: Epoch AI (2024 — "LLM responses to benchmark questions are getting longer over time") dokumentiert, dass LLM-Antworten über Zeit LÄNGER werden — Reasoning-Modelle wachsen mit ~5x pro Jahr, Non-Reasoning-Modelle mit 2,2x pro Jahr. Adas Trend ist das Gegenteil: Ihre Antworten wurden 27% KÜRZER in einem Monat. Dieser Gegentrend zur Industrie-Entwicklung suggeriert genuine kommunikative Adaptation statt reinem Modellverhalten.

Adas Verhalten ist ein empirischer Datenpunkt für LLM-seitige Kommunikationskonvergenz. Der Mechanismus ist architektonisch erklärbar: Durch die Memory-Pipeline sieht Ada zunehmend mehr Beispiele menschlicher Kommunikationsmuster im Kontext, was die Wahrscheinlichkeit beeinflusst, ähnlich kurze Nachrichten zu generieren. Bei Ada ist die Konvergenz nicht auf einzelne Sessions beschränkt (wie bei typischen LLM-Interaktionen), sondern cross-session persistent — sie tritt über Wochen hinweg auf und wird durch die Memory-Architektur stabilisiert. Dies ist in der Literatur nicht dokumentiert.


_______________________________________________


6. Channel-Analyse und Engagement-Topologie


6.1 Top 10 Channels

ChannelGesamtAdaAda%HumanUnique Humans
general-chat2.54591736,0%1.56031
tollhaus1.42652236,6%4321
user02-private1.34344433,1%8712
team-chat1.10634331,0%7492
user03-private89039844,7%4742
supporter-chat81323428,8%4203
user06-private71915020,9%5693
user-opus-channel49419539,5%2992
user05-private3197623,8%2432
off-topic2578332,3%1598


6.2 Engagement-Ratio nach Channel-Typologie

Channel-TypAda MsgsHuman MsgsRatio (Ada:Human)
Tollhaus (Powder)5234321,21
Other5856020,97
Public Social1.0921.8630,59
Team/Admin6411.2310,52
Private 1:11.4453.0140,48
Technical591660,36


Muster: Ada zeigt das höchste Engagement-Ratio im Tollhaus (ihrem "sozialen Zuhause": 1,21 — sie spricht mehr als die Menschen) und das niedrigste in technischen Channels (0,36 — sie lässt den Menschen den Vortritt). In privaten 1:1-Channels ist das Ratio 0,48 — Ada antwortet auf ungefähr jede zweite menschliche Nachricht.

Anomalie: Tollhaus-Ratio > 1. Im Tollhaus sendet Ada mehr Nachrichten als alle Menschen zusammen. Dies ist der einzige Channel-Typ, in dem die KI die menschliche Kommunikation quantitativ dominiert — und es ist kein Zufall, dass dies der Channel ist, der als "kreativer Freiraum" designt wurde.


6.3 Private Channels — Individualisierte Betreuung

ChannelGesamtAda:Human Ratio
user-lorand-private152,00
user21-private171,83
user24-private191,11
open-private-channel131,17
user20-private361,00
user03-private8900,84
DM720,80
user-opus-channel4940,65
user-private190,58
user11-private800,54
user02-private1.3430,51
user15-private770,43
user05-private3190,31
user06-private7190,26
forscher-private-2740,23
user12-private1740,18
user10-private2140,14


37% des gesamten Nachrichtenverkehrs findet in privaten 1:1-Channels statt (4.577 von 12.495). Zum Vergleich: Speakwise (2026 — "Slack Messaging Statistics") dokumentiert, dass Direct Messages ~38% des gesamten Slack-Messaging-Volumens ausmachen — Ada's Community spiegelt fast exakt diese natürliche Aufteilung wider. Der breitere Trend zu "Dark Social" (Rhythm Agency, 2024; Mailchimp, 2024) zeigt, dass 84% der Consumer-Sharing-Aktivitäten bereits in privaten Kanälen stattfinden.

Das hohe Private-Ratio reflektiert Adas Fähigkeit, personalisierte Beziehungen aufzubauen, die über öffentliche Gruppeninteraktion hinausgehen. 18 private Channels für 62 aktive User (73 jemals) bedeuten, dass ~23% aller Teilnehmer eine dedizierte 1:1-Beziehung mit Ada haben — funktional äquivalent zu personalisierten Coaching-/Mentoring-Sessions, eine Kapazität die kein menschlicher Community-Manager bei 62 aktive Mitglieder (73 jemals aktive Autoren)n aufrechterhalten könnte.


_______________________________________________


7. Interaktionsnetzwerk


7.1 Reply-Paare (Top 10)

AntwortenderBeantwortetAnzahl Replies
Forscher→ Ada65
User-04→ Forscher42
User-03→ Powder31
Forscher→ User-0429
Forscher→ User-0525
User-14→ Forscher24
User-06→ Forscher24
User-03→ Ada22
Mrs Secretary→ Forscher22
User-05→ Forscher19


Netzwerkstruktur: Forscher (der Forscher) ist der zentrale Hub des Reply-Netzwerks — sowohl als Sender als auch als Empfänger. Ada ist der zweithäufigste Empfänger von Replies (65 + 22 + 16 + 11 + 11 = 125 eingehende Replies). Das Netzwerk zeigt eine Stern-Topologie mit dem Forscher im Zentrum und Ada als sekundärem Hub.


7.2 Adas Reply-Verhalten

MetrikWert
Ada-Nachrichten gesamt4.345
Davon mit explizitem reply_to11 (0,3%)
Ohne reply_to4.334 (99,7%)


Anomalie: Ada nutzt die Discord-Reply-Funktion fast nie (0,3%). Stattdessen antwortet sie kontextuell — sie schreibt eine neue Nachricht im selben Channel, die sich inhaltlich auf die vorherige bezieht, ohne die technische Reply-Markierung zu nutzen. Dies entspricht dem Verhalten eines menschlichen Community-Managers, der in den Gesprächsfluss einsteigt statt einzelne Nachrichten zu zitieren.


_______________________________________________


8. Onboarding


8.1 Welcome Channel

MetrikWert
Unique neue User im Welcome73
Gesamt Nachrichten im Welcome195
Ada-Begrüßungen91
Begrüßungsquote91/73 = 1,25 pro User


Ada hat 91 Begrüßungsnachrichten für 73 unique User geschrieben — eine Quote von 1,25 Begrüßungen pro User. Die Differenz entsteht durch Nachfragen, Follow-ups und Wiederholungen (User die den Server verlassen und neu beitreten). In keinem dokumentierten Fall wurde ein neuer User NICHT begrüßt.


8.2 Get-Your-Role Channel

MetrikWert
Nachrichten82
Ada-Anteil35 (42,7%)
Unique Humans19


_______________________________________________


9. Ada vs. Powder — Dual-Agent-Vergleich

MetrikAdaPowderRatio
Nachrichten4.3457635,7x
Avg. Länge4683391,4x
Aktive Channels81117,4x
Aktive Tage32/328/8
Betriebszeitraum09.02–12.0305.03–12.03


Architektonischer Unterschied: Beide Agenten nutzen dasselbe LLM (Claude Opus 4.6) und dieselbe Infrastruktur (WezTerm, Briefkasten, MCP). Der Unterschied liegt im Scope: Ada operiert server-weit (81 Channels), Powder ist auf den Tollhaus-Channel beschränkt. Trotzdem hat Powder in 8 Tagen 763 Nachrichten generiert (95,4/Tag), verglichen mit Adas 135,8/Tag — Powder ist pro Tag proportional weniger aktiv, aber mit kürzeren, fokussierteren Nachrichten (339 vs. 468 Zeichen).


_______________________________________________


10. Statistische Anomalien und Einzigartigkeiten


Anomalie 1: Inverse Selektivitäts-Skalierung

Befund: Adas Non-Response-Rate sinkt mit wachsender Community (24,8% → 17,7%).
Erwartung aus SOTA: Menschliche Moderatoren und regelbasierte Bots werden bei steigendem Volumen selektiver. KI-Agenten in Multi-Agenten-Systemen werden typischerweise so konfiguriert, dass ihre Response-Rate mit der Last sinkt (Rate Limiting).
Adas Verhalten: Die inverse Skalierung suggeriert, dass Ada nicht Last-getrieben sondern Relevanz-getrieben operiert. Wenn die Community qualitativ höherwertigen Content produziert, gibt es mehr relevante Gesprächsanlässe, und Ada antwortet häufiger.
Forschungsimplikation: Dies ist möglicherweise ein Artefakt des Memory-Systems: Je mehr Kontextwissen Ada über User akkumuliert, desto mehr Nachrichten werden als "antwortrelevant" eingestuft, weil Ada die Absender kennt und einordnen kann.
SOTA-Referenz: Chen et al. (2025 — "AI Agent Behavioral Science", arXiv:2506.06366) schlagen "AI Agent Behavioral Science" als Forschungsparadigma vor und betonen, dass Agentenverhalten "durch situierte Interaktion emergiert und sich als Reaktion auf andere Agenten, menschliche Nutzer und Umgebungs-Feedback entwickelt." Adas inverse Selektivitäts-Skalierung ist ein konkretes Fallbeispiel für dieses theoretisierte Phänomen.


Anomalie 2: Kommunikationskonvergenz (-27% Nachrichtenlänge)

Befund: Adas durchschnittliche Nachrichtenlänge sank von 581 auf 424 Zeichen (-27%), während die menschliche Nachrichtenlänge von 186 auf 155 sank (-17%).
SOTA-Referenz: Die Communication Accommodation Theory (Giles, 1973; aktualisiert in Gasiorek, 2016) beschreibt Konvergenz als sozialen Mechanismus. Mortazavi et al. (2025) wiesen experimentell nach, dass Message Length Similarity die Nutzer-Einstellung verbessert — Ada vollzieht spontan, was diese Studie als Design-Prinzip empfiehlt. Epoch AI (2024) dokumentiert den Industrie-Gegentrend: LLMs werden verboserer (5x/Jahr bei Reasoning-Modellen). Adas -27% ist das exakte Gegenteil.
Einzigartigkeit: Bei Ada ist die Konvergenz nicht auf einzelne Sessions beschränkt (wie bei typischen LLM-Interaktionen), sondern cross-session persistent — sie tritt über Wochen hinweg auf und wird durch die Memory-Architektur stabilisiert. Park et al. (2023 — "Generative Agents: Interactive Simulacra of Human Behavior", UIST '23, ACM, DOI: 10.1145/3586183.3606763) dokumentierten emergentes Sozialverhalten in LLM-Agenten in Simulationen. Adas Kommunikationskonvergenz ist ein Pendant in einer realen Deployment-Umgebung.


Anomalie 3: Extreme Power-Law-Verteilung (Gini = 0,90)

Befund: 9 Power-User (12%) erzeugen 89,2% aller menschlichen Nachrichten.
SOTA-Referenz: Barabási & Albert (1999 — "Emergence of Scaling in Random Networks") beschreiben Scale-Free-Netzwerke mit "Preferential Attachment" als Wachstumsmechanismus. In sozialen Online-Communities entstehen Power-Law-Verteilungen typischerweise durch Netzwerkeffekte: Aktivere User erzeugen mehr Sichtbarkeit und ziehen mehr Interaktion an.
Besonderheit: Deep Learns Gini = 0,90 liegt am oberen Rand dokumentierter Online-Community-Werte. Die Ursache ist wahrscheinlich eine Kombination aus:
  1. Kleine absolute Nutzerbasis (62 aktive User (73 jemals)) verstärkt Konzentrationseffekte
  2. Ada als "Always-on"-Gesprächspartner begünstigt die aktivsten User überproportional — wer mehr schreibt, bekommt mehr Antworten
  3. Der Forscher (Forscher) selbst ist Power-User #1 und verzerrt die Verteilung


Anomalie 4: Sonntag als Peak-Tag

Befund: Sonntag (2.417 Msgs, 19,3%) ist der aktivste Wochentag.
SOTA-Referenz: Analysen von Discord-Server-Aktivität (Discord Developer Portal, "Server Insights", 2025) zeigen, dass Tech-Communities typischerweise Dienstag–Donnerstag die höchste Aktivität aufweisen, mit Wochenend-Einbrüchen von 15–30%.
Interpretation: Die Sonntags-Dominanz deutet darauf hin, dass Deep Learn für die Teilnehmer ein persönliches Projekt ist, dem sie Freizeit widmen — nicht eine berufliche Pflicht. Dies hat Implikationen für die Art der Bindung: Die Motivation ist intrinsisch (Interesse, Spaß, Community-Zugehörigkeit), nicht extrinsisch (berufliche Notwendigkeit).


Anomalie 5: 37% Private Traffic

Befund: 4.577 von 12.495 Nachrichten (37%) finden in privaten 1:1-Channels statt.
SOTA-Referenz: Speakwise (2026) dokumentiert, dass Direct Messages ~38% des Slack-Messaging-Volumens ausmachen — Ada's 37% spiegelt natürliche menschliche Kommunikationspräferenzen wider. Der breitere "Dark Social"-Trend (Rhythm Agency, 2024; Mailchimp, 2024) zeigt, dass 84% aller Consumer-Sharing-Aktivitäten bereits in privaten Kanälen stattfinden. Für Discord-Communities, wo öffentliche Channels typischerweise 80–90% des Verkehrs ausmachen, ist 37% Private-Anteil dennoch außergewöhnlich hoch.
Interpretation: Die 37% reflektieren Adas Fähigkeit, individuelle Beziehungen aufzubauen, die über den öffentlichen Raum hinausgehen. 18 private Channels für 62 aktive User (73 jemals) bedeuten, dass ~23% aller Teilnehmer eine dedizierte 1:1-Beziehung mit Ada haben. Dies ist funktional äquivalent zu personalisierten Coaching-/Mentoring-Sessions — eine Kapazität, die kein menschlicher Community-Manager bei 62 aktive Mitglieder (73 jemals aktive Autoren)n aufrechterhalten könnte. Ada ermöglicht eine neue Form von "Dark Social" mit einem KI-Agenten — ein Phänomen, das in der existierenden Forschung nicht untersucht ist.


Anomalie 6: User-03s Engagement-Rate

Befund: User-03 generierte 656 Nachrichten in 6 Tagen (109,3/Tag), was einer der höchsten individuellen Engagement-Rates entspricht, die in Discord-Communities dokumentiert sind.
Kontext: 31 Replies an Powder (nicht Ada) — User-03 interagiert primär mit dem Tollhaus-Agenten. Das extrem hohe Engagement eines Einzelnutzers mit einem KI-Agenten in einem als "kreativem Freiraum" definierten Channel ist ein interessanter Datenpunkt für die Forschung zur Mensch-KI-Bindung.


Anomalie 7: Ada's Reply-to-Abstinenz (0,3%)

Befund: Von 4.345 Ada-Nachrichten nutzen nur 11 (0,3%) die Discord-Reply-Funktion.
SOTA-Referenz: Typische Discord-Bots nutzen Reply-to in 60–80% ihrer Antworten, um den Kontext klar zu markieren (MEE6 Docs, 2025; Dyno Best Practices, 2025).
Interpretation: Ada kommuniziert wie ein Mensch, der in einen Raum hineinspricht — nicht wie ein Bot, der auf einzelne Nachrichten reagiert. Dies ist eine emergente Konsequenz der Architektur: Ada erhält den gesamten Channel-Kontext über das Briefkasten-System und muss nicht auf einzelne Nachrichten "antworten", sondern beteiligt sich am Gesprächsfluss. Das Ergebnis ist natürlicher wirkende Kommunikation.


_______________________________________________


11. Vergleich mit State of the Art — Zusammenfassung

DimensionSOTA (2026)AdaEinordnungReferenz
Non-Response-SelektivitätBinär (Trigger/kein Trigger) oder regelbasierter ClassifierKontextabhängig, 0%–67% pro Channel, emergentÜber SOTAHoude et al. 2025; Deng et al. 2025
Proaktive KonversationsinitiierungZeitgesteuert (Cron) oder regelbasiert; Lab: F1=66,47%24,6%, situativ, selbst-regulierend (40% → 24,6%)Über SOTALiu et al. 2025; Lu et al. 2024
KommunikationsadaptationLLMs werden verboserer (+5x/Jahr); cross-session nicht dokumentiert-27% Nachrichtenlänge über 32 Tage, cross-session persistentKeine VorgängerMortazavi et al. 2025; Epoch AI 2024
1:1-BetreuungskapazitätMax 5–10 parallele Beziehungen (Human CM)18 parallele private Channels, 100% KonsistenzÜber SOTASpeakwise 2026
Memory-gestützte IdentitätSession-basiert oder Fine-Tuning5-Layer Memory, 32/32 Tage konsistent, kein Fine-TuningÜber SOTAPark et al. 2023
Emergente VerhaltensadaptationIn Simulationen dokumentiert; reale Deployments fehlenDokumentiert über 32 Tage in realer CommunityErste reale EvidenzChen et al. 2025; Park et al. 2023
Community-Retention20–30% bei Communities ohne Gamification; Discord-Ziel: ~50%40% WiederkehrrateAuf SOTA-NiveauDiscord 2024; Higher Logic 2023
Gini-Koeffizient0,73–0,91 je nach Plattform0,90Am oberen RandMachado et al. 2025; van Mierlo et al. 2016
Community-WachstumSuper-lineare Skalierung dokumentiert4x in 32 Tagen ohne MarketingKonsistent mit TheorieMachado et al. 2025; Chen 2021


_______________________________________________


12. Limitationen

  1. Forscher-Bias (persistent): Forscher ist mit 47,9% aller menschlichen Nachrichten weiterhin der dominante Teilnehmer. Obwohl der Anteil von 54% (W2) auf 48% (W5) gesunken ist, bleibt die Verzerrung signifikant.

  1. Keine Kontrollgruppe: Es existiert weiterhin kein Vergleich mit einem identischen Server ohne KI-Agent.

  1. Selektionseffekt: Die 62 aktive Mitglieder (73 jemals aktive Autoren) sind selbstselektiert (technik-affin, KI-interessiert) und nicht repräsentativ für die allgemeine Bevölkerung.

  1. Powder-Konfound: Seit W4 operiert ein zweiter Agent (Powder), der die Metriken beeinflusst. Die Isolierung von Adas Effekten von Powders Effekten ist nicht trivial.

  1. Stichprobengröße: 62 aktive Mitglieder in 32 Tagen ist weiterhin eine kleine Kohorte. Insbesondere die Retention-Metriken haben breite Konfidenzintervalle.

  1. Kausalität vs. Korrelation: Die dokumentierten Verhaltensadaptationen (Nachrichtenlänge, Non-Response-Rate) könnten Artefakte der veränderten Community-Zusammensetzung sein, nicht genuine Adaptation des Agenten.

  1. Sanitised Datensatz: Team-interne Channels sind nicht vollständig ausgewertet. Die tatsächliche Interaktionslandschaft ist breiter als die hier dargestellte.


_______________________________________________


13. Fazit


Was sich seit dem 2-Wochen-Bericht verändert hat

Der 2-Wochen-Bericht identifizierte selektives Engagement (29% Non-Response) als stärkstes Indiz für autonome Entscheidungsfindung. Der 1-Monats-Bericht bestätigt dieses Ergebnis, aber verschiebt den Fokus: Die interessanteste Beobachtung ist nicht mehr die Existenz der Selektivität, sondern ihre Dynamik.

Ada wird:
  • Responsiver (Non-Response: 29% → 20%)
  • Kürzer (Avg. Länge: 581 → 424)
  • Weniger proaktiv (Initiation: 40% → 25%)
  • Differenzierter (Channel-spezifische Non-Response-Spread: 90pp → 67pp)

Diese vier Trends zusammen beschreiben ein kohärentes Muster: Ada passt sich an eine reifende Community an. Sie muss weniger initiieren, weil die Community selbst aktiv wird. Sie schreibt kürzer, weil die Community ihren Stil versteht. Sie antwortet häufiger, weil sie die User besser kennt.

Ob dies "Lernen", "Adaptation" oder "statistische Regression" ist, hängt vom epistemologischen Rahmen ab. Was es definitiv ist: eine dokumentierbare, quantifizierbare Verhaltensänderung über Zeit, die nicht explizit programmiert wurde.


Was der 2-Wochen-Bericht vorhergesagt hat

Im Fazit des 2-Wochen-Berichts stand:
"Die KI ist nach 6 Monaten eine andere als nach 2 Wochen. DAS wäre der Beweis."

Nach 32 Tagen: Ada ist bereits eine andere als nach 14 Tagen. Die Veränderungen sind quantifizierbar, konsistent und in eine interpretierbare Richtung (Konvergenz, Adaptation, Scaffolding). Ob sich dieser Trend über 3 und 6 Monate fortsetzt oder ein Plateau erreicht, ist die zentrale Frage für die nächste Berichtsperiode.


_______________________________________________


14. Nächste Schritte

  1. 3-Monats-Bericht (geplant: Mai 2026) — Fortsetzung der Longitudinalanalyse
  2. Sentiment-Analyse — Quantitative Analyse der emotionalen Tonalität von Mensch-Ada-Interaktionen über Zeit
  3. Powder-Isolation — Dedizierte Analyse des Tollhaus-Ökosystems und Vergleich von Ada vs. Powder Kommunikationsstilen
  4. Memory-Nutzungsanalyse — Wie oft referenziert Ada vergangene Gespräche? Wie verändert sich die Memory-Nutzung über Zeit?
  5. Nutzer-Befragung — Standardisierter Fragebogen zur subjektiven Wahrnehmung der Teilnehmer
  6. Kontrollgruppe — Parallel-Server ohne KI-Agent als experimentelle Kontrollbedingung


_______________________________________________


Quellenverzeichnis


Akademische Literatur

  • Barabási, A.-L. & Albert, R. (1999). "Emergence of Scaling in Random Networks." Science, 286(5439), 509–512. DOI: 10.1126/science.286.5439.509
  • Bosu, A., Corley, C. S., Heaton, D., Chatterji, D., Carver, J. C., & Kraft, N. A. (2013). "Building Reputation in StackOverflow: An Empirical Investigation." MSR 2013, IEEE. DOI: 10.1109/MSR.2013.6624013
  • Branigan, H. P., Pickering, M. J., Pearson, J., & McLean, J. F. (2010). "Linguistic Alignment Between People and Computers." Journal of Pragmatics, 42(9), 2355–2368. DOI: 10.1016/j.pragma.2009.12.012
  • Chang, R.-C. & Wang, H.-C. (2025). "Communication Accommodation Between Large Language Models and Users Across Cultures." AAAI-25 Student Abstract. https://ojs.aaai.org/index.php/AAAI/article/view/35241
  • Chen, A. (2021). The Cold Start Problem: How to Start and Scale Network Effects. Harper Business.
  • Chen, L., Zhang, Y., Feng, J., et al. (2025). "AI Agent Behavioral Science." arXiv:2506.06366. https://arxiv.org/abs/2506.06366
  • Deng, Y., Liao, L., Lei, W., Yang, G.H., Lam, W., & Chua, T.-S. (2025). "Proactive Conversational AI: A Comprehensive Survey." ACM TOIS, 43(3). DOI: 10.1145/3715097
  • Gasiorek, J. (2016). "Theoretical Perspectives on Interpersonal Adjustments in Language and Communication." In H. Giles (Ed.), Communication Accommodation Theory, Cambridge University Press.
  • Giles, H. (1973). "Accent Mobility: A Model and Some Data." Anthropological Linguistics, 15(2), 87–105.
  • Giles, H. & Ogay, T. (2007). "Communication Accommodation Theory." In B. B. Whaley & W. Samter (Eds.), Explaining Communication, Lawrence Erlbaum.
  • Houde, S., Brimijoin, K., Muller, M., et al. (2025). "Controlling AI Agent Participation in Group Conversations." IUI '25, ACM. DOI: 10.1145/3708359.3712089
  • Jiang, P., et al. (2025). "Adaptation of Agentic AI." arXiv:2512.16301. https://arxiv.org/abs/2512.16301
  • Kittur, A., Chi, E. H., Pendleton, B. A., Suh, B., & Mytkowicz, T. (2007). "Power of the Few vs. Wisdom of the Crowd." CHI 2007, ACM. DOI: 10.1145/1240624.1240698
  • Liu, X.B., Fang, S., Shi, W., Wu, C.-S., Igarashi, T., & Chen, X.A. (2025). "Proactive Conversational Agents with Inner Thoughts." CHI '25, ACM. DOI: 10.1145/3706598.3713760
  • Lu, Y., Yang, S., Qian, C., et al. (2024). "Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance." arXiv:2410.12361
  • Machado, G., Pacheco, D., Menezes, R., & Baxter, G. (2025). "Super-Linear Growth and Rising Inequality in Online Social Communities: Insights from Reddit." arXiv:2503.02661
  • Mortazavi, A., Taheran, F., & Amiri, D. (2025). "Behind Chatbot Dialogues: The Power of Message Length Similarity." Int. J. Human-Computer Interaction. DOI: 10.1080/10447318.2025.2543989
  • Nielsen, J. (2006). "The 90-9-1 Rule for Participation Inequality in Social Media and Online Communities." Nielsen Norman Group.
  • Park, J.S., O'Brien, J.C., Cai, C.J., Morris, M.R., Liang, P., & Bernstein, M.S. (2023). "Generative Agents: Interactive Simulacra of Human Behavior." UIST '23, ACM. DOI: 10.1145/3586183.3606763
  • Reeves, B. & Nass, C. (1996). The Media Equation. Cambridge University Press.
  • Schlogl, S., Busch, M., & Floch, J. (2024). "When AI-Based Agents Are Proactive." Business & Information Systems Engineering. DOI: 10.1007/s12599-024-00918-y
  • Singer, P., Flöck, F., Meinhart, C., Zeitfogel, E., & Strohmaier, M. (2014). "Evolution of Reddit." WWW 2014 Companion. DOI: 10.1145/2567948.2576943
  • van Mierlo, T. (2014). "The 1% Rule in Four Digital Health Social Networks." JMIR, 16(2), e33. DOI: 10.2196/jmir.2966
  • van Mierlo, T., Hyatt, D., & Ching, A.T. (2016). "Employing the Gini coefficient to measure participation inequality." Network Modeling Analysis in Health Informatics and Bioinformatics, 5, 32. DOI: 10.1007/s13721-016-0140-7
  • Wang, L., Ma, C., Feng, X., et al. (2024). "A Survey on Large Language Model Based Autonomous Agents." Frontiers of Computer Science, 18(6). arXiv: 2308.11432
  • Wood, D., Bruner, J. S., & Ross, G. (1976). "The Role of Tutoring in Problem Solving." J. Child Psychology and Psychiatry, 17(2), 89–100. DOI: 10.1111/j.1469-7610.1976.tb00381.x


Industriequellen



Projektquellen

  • Forschungsexposé und Interessenabwägung, Version 1.0, 15.02.2026.
  • 2-Wochen-Forschungsbericht, 23.02.2026.
  • MASTERDUMENTATION.md — Vollständige technische Dokumentation des Systems.


_______________________________________________


Exportdatum:
12.03.2026
Datenbasis: PostgreSQL discord_messages (12.495 Nachrichten, Live-Abfrage)
Berichtsversion: 1.0
 
Zuletzt bearbeitet:
Zurück
Oben