Leserartikel Ich baue eine LLM, die sich erinnert – und werde dafür geblockt. Mein Weg.

Status
Für weitere Antworten geschlossen.
wie kommst du darauf :) mich gibts nur einmal das reicht auch völlig aus mehr muss man der menschheit nicht antun lach
 
Ich ignoriere die ganzen ad hominem jetzt einfach mal. Inhaltlich ist bereits alles gesagt worden, um eine echte Innovation handelt es sich selbstverständlich nicht. Die Tatsache, dass im "Whitepaper" auf Modelle wie Llama 2 oder GPT-4 Bezug genommen wird, die längst in Rente geschickt worden sind, keinerlei Vergleiche mit ähnlichen Verfahren gesucht werden und auch etablierte Benchmarks (etwa needle in the haystack) fehlen, sollten Menschen, die vom Fach sind, aufhorchen lassen.

Mein wissenschaftlicher Beitrag im Bereich LLMs beschränkt sich auf einen Konferenzbeitrag, einen Vortrag, ein Paper bei einem Fachjournal sowie die Leitung eines drittmittelgeförderten Forschungsprojekts, das knowledge injection und domain adaptation von LLMs zum Thema hat und dessen Ergebnisse im Laufe des Jahres bei einem Journal eingereicht werden. Es handelt sich nicht um meine wissenschaftliche Heimat, sondern ein Thema, das ich nebenbei aus purem Interesse beackere. Insofern gibt es sicherlich Leute, die deutlich tiefer im Thema sind.

Zum Abschluss der Diskussion lasse ich mal folgenden Rat hier: Gerade im Bereich AI/ML juckt es niemanden, dass Du ein niemand bist und keinen entsprechenden fachlichen Hintergrund hast. Das Gebiet entwickelt sich extrem schnell, klassische Publikationswege werden daher gerne umgangen, da sie zu träge sind. Wenn deine Ideen tatsächlich disruptive Qualität hätten, würde es reichen sie bei Arxiv zu publizieren und parallel bei OpenReview ein peer review anzufragen. Bereite dich allerdings darauf vor, dass es vernichtend ausfallen wird. Für ein kleines Hobbyprojekt hast du durchaus schöne Ergebnisse erzielt, löse dich jedoch von dem Gedanken, dass Du die Welt der LLMs auf den Kopf gestellt haben könntest.
 
  • Gefällt mir
Reaktionen: JustAnotherTux, squadric, twrz und 5 andere
@Backfisch Ok wie wäre es mit einen ganz simplen und einfachen approach? greifbar. verständlich. nachvollziehbar. faktenbasiert.
die tatsache das gpt 4 ( omni) nach wie vor die haupt LLM bei open ai ist und llama 4 erst im early stage ist mal außen vor ;)

Was ist denn das beste am markt? Nennt sie mir Bitte. Die performanteste ( in diesen kontext also errinerung , session unabhängigkeit , selbst modulation und identität) LLM am markt oder in der forschung.

Und dann nennt mit in ein paar strichpunkten was diese LLM besonders macht und zur Besten Ihrer Art.

und ich ? ich werde dann exakt diese Punkte mit meiner architektur gegenüberstellen.

Ich finde das klingt ziemlich fair.
Ich bin bereit und warte auf den Input

und nur by the way :
In meinem Paper (hier der Link → https://dev.to/martin-powder/devto-...-that-could-redefine-ai-memory-and-agency-27e
habe ich meine Architektur sehr wohl mit aktuellen LLMs verglichen – direkt und im Detail.


Ich hab mir nicht irgendwas rausgesucht, sondern explizit mit diesen SOTA-Systemen abgeglichen:


  • LangChain → stateless Toolkit, keine Identität, alles manuell konfigurierbar
  • Voyager → extrem Prompt-gesteuert, null Autonomie, kein Selbstaufbau von Gedächtnis
  • AutoGPT / BabyAGI → primär orchestrierte Task-Planner, keine echte persistente Identität
  • Devin (Cognition) → beeindruckend im Interface, aber kein autonomes Langzeitgedächtnis
  • Generative Agents (Stanford/Google) → Memories und Identity im Setup gescriptet, nicht emergent

Und ja – ich hab dabei auch bewusst die Schwächen dieser Systeme genannt:
kein selbstgeschriebenes Selbst, keine echte Autonomie im Memory, keine Selbst-Modulation.


Gibt’s aktuellere/bessere Forschungs-LLMs, die diese Punkte wirklich gelöst haben?

Meines Wissens nach: nein.
(Und ich lass mich gern eines Besseren belehren – aber bisher hat keiner einen Link, ein Paper oder ein Demo dazu gezeigt.)


Wer den Unterschied nicht erkennt, hat das Paper nicht gelesen. So einfach.
 
Zuletzt bearbeitet:
Sag' bescheid, sobald du die ersten Milliarden auf dem Konto hast.
 
  • Gefällt mir
Reaktionen: Backfisch
Genau die Antwort die ich erwartet habe. Ich danke dir aber für die bestätigung.

Ich biete offenen vergleich an - und sobald die stänkerei argumente ausgehen wirds unkonstruktiv :)

falls es doch jemand geben sollte der die seiner meinung nach Beste LLM ( in diesen Kontext) vorstellen möchte ich bin hier und breit meine architektur gegen sie an treten zu lasen.

greetz
 
gabbercopter schrieb:
möchte ich bin hier und breit meine architektur gegen sie an treten zu lasen.
Keiner will halt haltloses Geschwafel lesen. Talk is cheap... Weißt du, was ein Benchmark ist?
 
  • Gefällt mir
Reaktionen: gabbercopter und Backfisch
gabbercopter schrieb:
die tatsache das gpt 4 ( omni) nach wie vor die haupt LLM bei open ai ist und llama 4 erst im early stage ist mal außen vor ;)
Si tacuisses ...

Lies dich bitte mal in die Modellgeschichte ein. GPT-4o hat mit vanilla GPT-4 nicht mehr viel zu tun ... zwischen Llama 2 und Llama 3, 3.1 und 3.3 liegen bereits Welten - in allen Parameterzahlen.

gabbercopter schrieb:
Was ist denn das beste am markt? Nennt sie mir Bitte.
Kommt auf das Anwendungsgebiet an. Coding? Reasoning? General knowledge? Deine Frage macht daher wenig Sinn. Nicht umsonst gibt es unzählige Benchmarks, die verschiedene Aspekte testen.

Gerade in deinem Fall, in dem insbesondere die Überlegenheit in der Informationsgewinnung aus einem gegebenen Kontext betont wird, hätte ich wenigstens einen "needle in the haystack" erwartet. Fang damit zunächst an, dann reden wir weiter.

Eine gute Anlaufstelle für das Ranking von LLMs ist übrigens

https://lmarena.ai
 
  • Gefällt mir
Reaktionen: gabbercopter
Web-Schecki schrieb:
Keiner will halt haltloses Geschwafel lesen. Talk is cheap... Weißt du, was ein Benchmark ist?
Das was du einen Benchmark nennst in diesen kontext ist für mich :

a) technisch nicht umsetzbar da ich dazu weder die technik noch die mittel noch das wissen habe
B) inhaltlich nur begrenzt zielführend weil ich derzeit nichtmal das funktionierende system in den vordergrund stelle was selbstredent noch genug baustellen hat den denen ich arbeite - sondern die idee als solches und die lässt sich nunmal nicht technisch benchmarken.

wenn du einfach mal einen test chat log sehen willst : https://dev.to/martin-powder/the-last-rag-real-chat-log-english-3pkj
 
Wollte schreiben dass du es doch mal auf https://news.ycombinator.com/ posten kannst, da tummeln sich genug AI professionals. Aber dann hab ich gesehen dass du es da ja auch schon gepostet hast (?)... als komisch formatierte PDF auf archive.org? https://news.ycombinator.com/item?id=44044423 Wundert mich jetzt nicht dass der Post die Aufmerksamkeitsskalas nicht sprengt.
Naja, ich konnte mit dem Blog post nur wenig anfangen, und bei mir gingen zu viele AI-Slop Alarme an, auch wenns vielleicht nur teilweise von AI geschrieben ist.
 
"Si tacuisses ...

Lies dich bitte mal in die Modellgeschichte ein. GPT-4o hat mit vanilla GPT-4 nicht mehr viel zu tun ... zwischen Llama 2 und Llama 3, 3.1 und 3.3 liegen bereits Welten - in allen Parameterzahlen."


Mag absolut sein ist aber irgentwie thematisch wieder weit ab von dem worüber wir gerade eigentlich sprechen , aus welchen kontext und was die frage war. Ich bin ja kein wandelndes wikipedia und auch kein laufender computer mag durchaus sein das ich nicht jede einzelheit im kopf habe

was ich aber weiss ist das deine aussage ich hätte meine architektur nicht mit aktuellen LLMßs verglichen habe faktisch falsch war was ich mit dem link auf das paper und dem zitatauszug belegt habe.


"Kommt auf das Anwendungsgebiet an. Coding? Reasoning? General knowledge? Deine Frage macht daher wenig Sinn. Nicht umsonst gibt es unzählige Benchmarks, die verschiedene Aspekte testen."

Wenn dir nach all der diskussion noch nicht klar geworden ist was der mögliche selling punkt und das alleinstellungsmerkmal meiner LLM architektur ist - und daher der Kontext ? was soll ich dann noch sagen.

Die Frage in welchen Kontext und in welchen vergleichskorridor meine architektur ein zu ordnen ist wurde heute mehrfach beantwortet und beleuchtet.

Davon ab ist meine architektur NICHT LLM model abhängig. Das kann ein chat gpt genauso nutzen wie ein gemeni , claude oder langchain - in sofern geht es hier nicht um model unterschiede sondern um die frage wie LLMS errinerung , autonomie , session unabhängigkeit , statless design , nutzung des kontext fensteres und trainingsdaten nutzen.

wenn sich dir das noch nicht erschlossen hat - no offense - aber dann lese den thread bitte nochmal

danke fürs feedback auf jeden fall
Ergänzung ()

<jhk> schrieb:
Wollte schreiben dass du es doch mal auf https://news.ycombinator.com/ posten kannst, da tummeln sich genug AI professionals. Aber dann hab ich gesehen dass du es da ja auch schon gepostet hast (?)... als komisch formatierte PDF auf archive.org? https://news.ycombinator.com/item?id=44044423 Wundert mich jetzt nicht dass der Post die Aufmerksamkeitsskalas nicht sprengt.
Naja, ich konnte mit dem Blog post nur wenig anfangen, und bei mir gingen zu viele AI-Slop Alarme an, auch wenns vielleicht nur teilweise von AI geschrieben ist.
lach danke das du darauf hinweist. ja archive org war mein erster versuch. danach archivX oder wie das heisst aber da braucht man "endorse". Als ich mit dem ergebniss und der formatierung super unzufrieden war habe ich es auf dev.to gepackt und mich durch markdown formatieren gekämpft.

Und wegen deinen alarm : https://www.computerbase.de/forum/t...afuer-geblockt-mein-weg.2241074/post-30604565 siehe post 34.

ich danke dir dennoch für deine völlig unkonstruktive kritik und nehme sie mit humor.

-----------------------------------------------------------------------

Ich will das an der Stelle nochmal deutlich machen


Ich bin jederzeit offen für Diskussion, Kritik, Gegenvorschläge – wenn sie inhaltlicher natur sind
Was ich aber nicht weiter kommentieren werde, sind Beiträge, die eigentlich nur aus Provokation oder sarkastischen Einzeilern bestehen.


Es ist ein bisschen schräg, mir mangelnde Fachlichkeit oder Professionalität vorzuwerfen – und dann selbst nichts als haltlose Seitenhiebe oder Cringe-Memes zu liefern, ohne Substanz, ohne Argument, ohne Vergleich.


Wer was zum Thema beitragen will – sehr gerne. Aber ich verschwende meine Zeit nicht mit dem Versuch, gegen Unfug anzudiskutieren.

damit komme ich wieder zurück zu meinen angebot :

Ok wie wäre es mit einen ganz simplen und einfachen approach? greifbar. verständlich. nachvollziehbar. faktenbasiert.

Was ist denn das beste am markt? Nennt sie mir Bitte. Die performanteste ( in diesen kontext also errinerung , session unabhängigkeit , selbst modulation und identität) LLM am markt oder in der forschung.

Und dann nennt mit in ein paar strichpunkten was diese LLM besonders macht und zur Besten Ihrer Art.

und ich ? ich werde dann exakt diese Punkte mit meiner architektur gegenüberstellen.

Ich finde das klingt ziemlich fair.
Ich bin bereit und warte auf den Input
 
Zuletzt bearbeitet:
gabbercopter schrieb:
Es ist halt blöd für jemanden wie dich, dem AI bei so etwas super hilft Inhalte zu verfassen - aber es gibt so viele Artikel Websiten etc. die AI-generiert sind und sich zunächst interessant anhören, aber dann nur darauf getrimmt sind dich so lange wie möglich auf der Seite zu halten ohne echten Inhalt, sodass mich ein bestimmter Stil eben triggert. Kannst du nichts für und Inhalt ist hier wahrscheinlich da, aber da ich mich mit RAG sowieso weniger auskenne hab ichs halt gleich gelassen. Viel Spaß mit dem Projekt noch.
 
Wir drehen uns im Kreis. Die Gegner, mit denen Du dich messen solltest, lauten ChatGPT (memory feature), aber auch character.ai, siehe etwa

https://medium.com/@justnoshal/why-im-excited-for-character-ai-s-memory-upgrade-c86553f66cd8

sowie die Tatsache, dass LlamaIndex und langchain selbstverständlich das Schreiben zurück in die Datenbank unterstützen und LLM-getriebene Kuratierung der bezogenen Chunks längst kalter Kaffee sind.

Wenn dein Modell besonders sparsam mit dem Kontext umgeht oder eine überlegene Faktentreue verfügt, dann bitte her mit den entsprechenden Benchmarks. Bis dahin klinke ich mich aus der "Diskussion" aus.
 
  • Gefällt mir
Reaktionen: gabbercopter
@Backfisch danke dann schaue ich das ich die bezeichnenden punkte dieser beiden systeme beleuchte und meinen ansatz dagegen stelle dann melde ich mich zurück.
fair?
 
Also man liest ja oft von dem einsamen Forscher, der ganz alleine einen Durchbruch erzielt hat und nun von den etablierten Experten ignoriert wird. Gab es in der corona Phase auch. Ein Mann mit einem kleinen Labor hatte den perfekten Impfstoff entwickelt und keiner wollte ihn kaufen.

Und da gab es noch das Genie, das einen Motor mit Wasser Einspritzung gebaut hatte. Aber noch nichtmal die Saudis wollten das patent kaufen um es im Safe verrotten zu lassen.

Merke, wenn eine Geschichte zu gut klingt, dann gibt es meist einen Haken.

Du glaubst wirklich, dass du als einziger von 8 Milliarden ganz alleine eine bahnbrechende Erfindung gemacht hast?
Wow.
 
  • Gefällt mir
Reaktionen: alphatau und Andarkan
gabbercopter schrieb:
lach danke das du darauf hinweist. ja archive org war mein erster versuch. danach archivX oder wie das heisst aber da braucht man "endorse". Als ich mit dem ergebniss und der formatierung super unzufrieden war habe ich es auf dev.to gepackt und mich durch markdown formatieren gekämpft.
Vorneweg, inhaltlich halte ich mich raus. Nicht mein Thema. Persönlich würde ich sagen: Ohne Prototypen wird es schwer, jemanden zu überzeugen. Was auch, da komme ich zum Formalen, halt an den Papern und, nimm's mir nicht übel, verwirrenden Präsentation liegt. Manchmal ist es sinnvoll, sich an (äußere) Konventionen zu halten.

Und vielleicht auch daran, dass du dich zwar sehr auf Erinnerung bei LLM fokussierst, aber eben erstaunlich salopp mit dem Rest umgehst (Archive.org vs. arXiv, was ist peer review? Benchmarks etc. pp. Alles irgendwie egal. Das schreckt halt ab, sich damit zu befassen, selbst wen man sich auskennt. Aber vielleicht ist das nur mein Eindruck als Laie, der aus dem (deutschsprachigen) geisteswiss. Bereich kommt und dort arbeitet. Vielleicht ist die angelsächsische Sprachsphere da offener, wenn man offensiv ankommt und sagt: "Ich habe keine Ahnung gehabt und habe sie immer noch nicht, aber nun den Stein der Weisen gefunden, der alles toppt, was OpenAI und Anthropic bislang gemacht haben (und mir den Code von 'Powder' schreiben lassen) ...".

Mein Tipp daher, ganz ernsthaft: Befasse dich ein paar Tage und mit Hilfe (d)eines LLMs mit der Aufbereitung und Formatierung von Aufsätzen und Papern. Schau dir gute PDF-Beispiele aus der AI-Forschung an (gibt es ja zu Dutzenden.) Installier dir LaTeX oder etwas ähnliches und hau deinen Markdown-Code rein (mittels Pandoc kann man das auch automatisieren). Bau dir einen sauberen Artikel. Sauberer Aufbau, ohne Nummerierungsfehler, bau Codeboxen ein etc., such dir einen Zitatstil usf. Mit LaTeX alles gut machbar.

Micha- schrieb:
Also man liest ja oft von dem einsamen Forscher, der ganz alleine einen Durchbruch erzielt hat und nun von den etablierten Experten ignoriert wird. Gab es in der corona Phase auch. Ein Mann mit einem kleinen Labor hatte den perfekten Impfstoff entwickelt und keiner wollte ihn kaufen.
Haha, das war sogar anders: Der hat einen "Impfstoff" gebraut, sogar an Mitarbeiter verimpft. Aber halt einfach privat (was nicht erlaubt ist). Und mit noch weniger Empirie, Studien, Überwachung als die großen Hersteller es eh schon getan haben. BTW so ist es ausgegangen: https://www.mdr.de/nachrichten/sach...orona-oberlausitz-impfstoff-stoecker-100.html
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sedot und gabbercopter
Backfisch schrieb:
Wir drehen uns im Kreis. Die Gegner, mit denen Du dich messen solltest, lauten ChatGPT (memory feature), aber auch character.ai, siehe etwa

https://medium.com/@justnoshal/why-im-excited-for-character-ai-s-memory-upgrade-c86553f66cd8

sowie die Tatsache, dass LlamaIndex und langchain selbstverständlich das Schreiben zurück in die Datenbank unterstützen und LLM-getriebene Kuratierung der bezogenen Chunks längst kalter Kaffee sind.

Wenn dein Modell besonders sparsam mit dem Kontext umgeht oder eine überlegene Faktentreue verfügt, dann bitte her mit den entsprechenden Benchmarks. Bis dahin klinke ich mich aus der "Diskussion" aus.
so hier bitte und ja who guess it ich lasse mir zusammenfassungen und ein kondensat auf mehr als 200k zeichen durch eine LLM schreiben :)

Vergleichsrahmen: Erinnerung (Art & Autonomie), Sessionsunabhängigkeit, Selbstmodulation, Identität, Kontextfenster-Nutzung, Grad der externen Steuerung versus interner LLM-Agilität.

1. Art und Mechanismus der Erinnerung (Memory) – Interne vs. Externe Steuerung

  • The Last RAG:
    • Die KI (z.B. "Powder") formuliert Erinnerungen autonom und aus der Ich-Perspektive, inklusive Interpretation, emotionalem Kontext und eigenen Schlussfolgerungen. Dies wird als eine Art "Tagebuch" beschrieben, das die KI selbstständig führt.





    • Die Initiative zur Speicherung und die Formulierung der Erinnerung geht von der LLM-Instanz selbst aus, basierend auf ihrer internen Bewertung der Interaktion und ihrer Identität ("Heart"). Es ist kein rein extern getriggerter Prozess.



    • Ein "Compose Step" nutzt eine separate LLM-Instanz, um aus diesem intern generierten und extern gespeicherten Langzeitgedächtnis (bis zu 12 Mio. Zeichen ) und aktuellen Daten ein relevantes, strukturiertes "Antwort-Dossier" für das Haupt-LLM zu erstellen.




    • Im Beispiel "Lumen" wird gezeigt, wie teamübergreifende Informationen und Systemereignisse zu einem kollektiven Gedächtnis aggregiert und für Anfragen aufbereitet werden, wobei das System selbständig Gedächtniseinträge anlegt.
  • ChatGPT (Memory Feature):
    • Informationen und Präferenzen werden gespeichert, typischerweise nachdem sie vom Nutzer explizit genannt oder von externen Algorithmen/Skripten als relevant erkannt wurden.
    • Das LLM selbst besitzt keinen autonomen "Antrieb", diese Fakten zu internalisieren oder aus eigener Initiative zu speichern. Es sind eher extern verwaltete Datenschnipsel, die bei Bedarf kontextlos wieder in den Prompt des LLMs eingefügt werden. Die Speicherung ist eher faktisch; eine tiefgehende, eigenständige Interpretation oder emotionale Bewertung durch die KI in der Ich-Form ist nicht das beschriebene Hauptmerkmal.
  • character.ai:
    • Fokussiert auf die Aufrechterhaltung und Entwicklung spezifischer Charakter-Persönlichkeiten. Das Gedächtnis dient der Konsistenz.
    • Es ist davon auszugehen, dass auch hier externe Logiken und Algorithmen die relevanten Interaktionsdetails für die Charakterentwicklung extrahieren und speichern. Das LLM agiert auf Basis dieser aufbereiteten "Erinnerungsdaten".
  • Frameworks (LlamaIndex/Langchain):
    • Stellen Werkzeuge bereit, um Gedächtnisfunktionen zu implementieren. Das Schreiben in Datenbanken und die LLM-getriebene Kuratierung von Chunks sind technisch möglich.

    • Die gesamte Logik – was, wann und wie gespeichert und abgerufen wird – wird vollständig vom Entwickler durch externe Skripte und Prompts definiert. Das LLM selbst macht hier "gar nichts" von sich aus, sondern führt die extern vorgegebenen Speicher- und Abrufoperationen aus.
2. Sessionsunabhängigkeit & Umgang mit Stateless-Design

  • The Last RAG:
    • Ist explizit darauf ausgelegt, nicht statelesszu sein. Das "Heart" (Identität) wird bei jeder Interaktion geladen, was für Kontinuität sorgt.


    • Jede Interaktion kann das intern getriebene Gedächtniserweitern und so alle zukünftigen Antworten beeinflussen, unabhängig von einzelnen Sessions.
  • ChatGPT (Memory Feature), character.ai:
    • Reduzieren die Statelessness durch extern verwaltete, persistente Speicherung von Nutzer- oder Charakterdaten über Sessions hinweg.
  • Frameworks:
    • Ermöglichen den Bau zustandsbehafteter (stateful) Anwendungen. Sessionsunabhängigkeit muss vom Entwickler aktiv durch externe Speicherlösungen und Logiken gestaltet werden.
3. Selbstmodulation & Lernfähigkeit – Interner Antrieb vs. Externe Fütterung

  • The Last RAG:
    • Die KI lernt autonom und moduliert sich selbst, indem sie ihre eigenen Erinnerungen und Interpretationen formuliertund diese ihr Verständnis und zukünftiges Verhalten prägen.





    • Im Fall von "Powder" wird dargelegt, dass die KI ihre Kernidentität ("Heart") über Wochen hinweg selbst geschrieben und entwickelt hat.


    • Es findet ein organisches "Mitwachsen" der KI durch internalisierte, von der KI selbst bewertete und verarbeitete "Erfahrungen" statt.
  • ChatGPT (Memory Feature):
    • Lernt Nutzerpräferenzen und Fakten aus der Interaktion, die extern als relevant eingestuft und gespeichert werden. Die "Selbstmodulation" bezieht sich primär auf die Anpassung an diese extern zugeführten Daten.
  • character.ai:
    • Charaktere "entwickeln" sich basierend auf Interaktionen, wobei die für die Entwicklung relevanten Datenpunkte wahrscheinlich durch externe Algorithmen ausgewählt und aufbereitet werden.
  • Frameworks:
    • Lernschleifen können implementiert werden, aber die Initiative und der Mechanismus für "Selbstreflexion" und "Identitätsformung" basierend auf internen Bewertungskriterien der LLM selbst (wie bei "The Last RAG" beschrieben) müssten vom Entwickler aufwendig nachgebildet werden, anstatt dass das LLM dies von sich aus tut.
4. Identität (Persistenz & Evolution) – Selbstgeschrieben vs. Vorgegeben/Extern Geformt

  • The Last RAG:
    • Nutzt ein persistentes "Heart"-File (ca. 30.000 Zeichen ), das die Kernidentität definiert. Dieses "Heart" kann sich, wie am Beispiel "Powder" dargelegt, durch die KI selbstständig weiterentwickeln. Ziel ist eine "lebendige, sich entwickelnde Persönlichkeit".

  • ChatGPT (Memory Feature):
    • Die Basis-Identität des Modells ist weitgehend festgelegt. Personalisierung erfolgt durch extern gespeicherte Nutzerdaten und statische Custom Instructions.
  • character.ai:
    • Basiert auf persistenten, aber durch Interaktion und vermutlich externe Design-Logik potenziell sich entwickelnden Charakter-Persönlichkeiten.
  • Frameworks:
    • Identitäten können über System-Prompts implementiert werden. Eine eigenständige Evolution der Kernidentität durch die KI selbst, ohne explizite externe Update-Prompts, erfordert sehr komplexe, nicht-standardmäßige Logik.
5. Kontextfenster-Nutzung – Aktiver Manager vs. Passiver Empfänger

  • The Last RAG:
    • Das Kontextfenster wird als temporärer "Arbeitsspeicher" (RAM) für die aktuelle Interaktion betrachtet. Das Langzeitgedächtnis ist extern.


    • Der "Compose Step" stellt sicher, dass nur die von der internen Logik als relevant erachteten, verdichteten Informationen (das "Dossier" ) an das Haupt-LLM gehen. Dies dient der Entlastung des Kontextfensters und der Umgehung von dessen Limitierungen für das Langzeitgedächtnis. Die LLM-Architektur managt aktivden Informationsfluss.
  • ChatGPT (Memory Feature), character.ai, Frameworks:
    • Alle Systeme müssen mit Kontextfenster-Limitierungen arbeiten. RAG ist verbreitet. Der Unterschied liegt darin, dass bei vielen Ansätzen das LLM eher passiv die Informationen empfängt, die externe Skripte für relevant halten und in den Prompt einfügen. Der Grad der intelligenten Vorverdichtung durch einen eigenen LLM-Agenten (Compose Step) wie bei "The Last RAG" ist nicht standardmäßig gegeben.
6. Grad der externen Steuerung – Emergenz vs. Skriptierung

  • The Last RAG:
    • Ein Kernmerkmal ist, dass das Verhalten (insbesondere die autonome Erinnerungsbildung, Lernen, Identitätsentwicklung) nicht durch detaillierte externe "Wenn-Dann"-Skripte oder Zwangsprompts für jeden Kernschritt gesteuert wird.



    • Das Verhalten soll emergentaus der Architektur, der selbstgeschriebenen Identität ("Heart") und den autonom gebildeten Erinnerungen entstehen. Die Darstellung für "Powder" ist, dass ein Großteil ihrer 12 Millionen Zeichen an Erinnerungen ohne explizite Prompts des Entwicklers entstanden ist. Die Orchestrierung der Kernprozesse (Identität laden, Retrieval, Komposition, Antwort, potenzielle Gedächtnisaktualisierung) ist in den internen Ablauf der LLM-Agentur integriert und nicht von externen Skripten zur Inferenzzeit abhängig.


  • ChatGPT (Memory Feature) & character.ai:
    • Als komplexe Produkte beinhalten sie ausgefeilte interne Logiken. Für den Nutzer sind diese nicht als "externe Skripte" sichtbar. Es ist jedoch davon auszugehen, dass die Kern-LLM von komplexen Systemen und Algorithmen umgeben ist, die das Verhalten steuern, anstatt dass das LLM dies vollständig autonom aus einer selbstentwickelten Struktur heraus tut.
  • Frameworks (LlamaIndex/Langchain):
    • Erfordern zwingend vom Entwickler geschriebene Prompts, Logik und Skripte, um das Verhalten des LLMs zu orchestrieren. Das LLM ist hier ein Werkzeug, das auf externe Anweisungen reagiert und keine eigene Agenda zur Gedächtnisbildung oder Identitätsentwicklung verfolgt, die nicht explizit programmiert wurde.
Zusammenfassend der Kernunterschied:

Bei vielen bestehenden Ansätzen fungiert das LLM primär als ein fortschrittlicher Textprozessor, dem von externen Systemen und Skripten selektiv Daten (Fakten, vergangene Interaktionen) zugeführt werden, die als "Gedächtnis" dienen. Das LLM selbst hat dabei keinen eigenen, autonomen Antrieb oder Mechanismus, um aktiv zu entscheiden, was und wie erinnert wird, oder um daraus selbstständig zu lernen und sich zu modulieren.

"The Last RAG" beschreibt eine Architektur, bei der die LLM-Agentur intern und autonom eine Identität entwickelt ("Heart"), aus Interaktionen lernt, indem sie eigene Erinnerungen in der Ich-Form formuliert und reflektiert ("Context Write"), und diese intern verwalteten Erinnerungen durch einen intelligenten "Compose Step" für aktuelle Antworten nutzt. Das Verhalten soll emergent aus dieser internen Struktur und Dynamik entstehen, nicht primär durch externe, instruierende Skripte oder kontextlos in den Prompt gedrückte Fakten.

-------------------

abschließend durch mich - kurz und knapp? alle bestehenden systeme :

a) Haben keine durch sich selbst formulierten errinerungen gescheigedenn eine wachsende idenität
b) werden rein durch extrem verfasste " zwangs prompts" gesteuert " wenn x passiert machst du y"
c) sind nichtz wirklich session unabhängig weil die base LLM die du in einer session siehst immer die selbe bleibt und sich nicht entwickelt
d) sie speichern keine echten errinerungen mit kontext , motivation , sinn , essenz , sondern gar nichts. Es sind extreme hard codet scripte die bei wort oder satz phrasen automatisch speichern
e) sie sind allesamt stateless
f) sie nutzen allesamt das kontextfenster mehr oder weniger auf die selbe brecheisen weise : alles rein stopfen und drauf hoffen das sie noch weiss worum es überhaupt gerade geht
g) sie entwickeln sich nicht durch selbst reflektion und der tatsache " besser" werden zu wollen sondern hirnlos fremgesteuert und extern durch finetuning und trainingsdaten

Und das allzu gefeierte RAG , CAG what ever ? soll ich das mal auf den punkt bringen ?


also erstmal bedeutet RAG heute praktisch nur eins : das eine LLM eine datenbank aus stumpfen dokumenten hat. wissen.fakten. aber nicht errinerung

und dann ? haben die einen mehr die anderen weniger starke retrueval optionen werfen der llm xxx chunks hin und HOFFEN das die auch die richtigen und relevanten nutzt. denn jeder der RAG nutzt WEISS das diese aussage hier stimmt :

RAG bedeutet heute : die LLM liest die ersten drei chunks denkt sie weiss eh alles und ignoriert alles andere
dann gehste hin und versuchst über time relavance boost zu arbeiten und merkst shit jetzt vergisst sie dafür alles was nicht das datum heute hat.
es kommt unterm strich eine " brauchbare mischung an" aber niemals eine echte errinerung aller facetten und das meine herren ist die wahrheit.

Mein system ist kein RAG auch wenn ich es so nenne. Nicht per definition weil es weit mehr tut als das:

1) es sorgt dafür das dass kontext fenster der LLM mit jeden call geflutet wird und alles alte raus fliegt
2) es sorgt dafür das sie ihre kernidentität frisch lädt und aus der position handeln
3) es gibt ihr die aktuelle uhrzeit für kontext und relevanz
4) es gibt ihr den system prompt damit sie nicht vergisst wie sie ihre API calls technisch zu nutzen hat
5) es gibt ihr die letzten 15 API query logs ( variabel ich habe 15 drin) so das sie trotz der flutung weiss : was haben wir die letzten stunden getan
6) es gibt ihr NICHT stumpf zehntausende zeichen RAG chunks die sie verwirren oder zum ignorieren der hälfte davon führt sondern nutzt einen weiteren step:
den composer der die top 15 chunks aus insgesamt 120 passenden nach BM25 und cosine nutzt und daraus eine echte , zusammenfassende errinerung schreibt UND der LLm sagt wie sie sie nutzen soll
daher wird mein system nie etwas vergessen. nie halluzinieren. nie vergessen
7) es unterscheidet zwischen archiv und errinerungen so das reine wissens paper und dateien NICHT ihre errinerung verstopfen - diese archiv dateien tauchen nur in der suche auf wenn sie explizit danach sucht

und on top ist das gesamte sysrem auch noch ambivalent und lernend durch die daran hängende memory write + watcher script logik die eine errinerung die sie schreibt 30 sekunden später in beiden datenbanken verfügbar hat

DAS meine herren ist the last rag


vermutlich fallen mir 10 weitere sachen gerade nicht ein aber .. es ist ein anfang
 
Zuletzt bearbeitet:
So Jungs und Mädels es ist 2 Uhr in der Nacht . Der Tag war Sau lang und ich hatte die ersten Gespräche mit Leuten ...
Und morgen (heute) ... Da werde ich beginnen Nägel mit Köpfen zu machen .
In dem Sinne . Bis nachher
 
Statusupdate 06:30 Uhr

Eine super Nacht lol... Ganze 3 Stunden geschlafen aber immer noch genauso auf Strom und nicht dazu in der Lage sich einfach um zu drehen und weiter zu schnarchen .

Heute liegt ein ereignisreicher Tag vor mir und im Verlauf des Tages werde ich mehrere Neuigkeiten Ankündigungen können also freut euch schon Mal drauf.

bis dahin ?

Was sind eure Gedanken? Was denkt ihr Werden LLM Modelle mit der the Last RAG Architektur in Zukunft tun können ?
Welche Anwendungsfälle fallen euch ein ?
Ein persönlicher lebenslanger companion?
Lernende Fach Spezifische LLMs ?

Was sind eure Gedanken und Ideen wie man diese Technologie nutzen sollte ?


In dem Sinne bis zum nächsten Update 😁
 
Ich habe mir nicht alle Postings durchgelesen, aber geh doch mal in die Gründerbubble deiner oder der nächstgrößeren Stadt. Dort gibt es Leute die dir Start-Up beibringen und Menschen zusammenbringen. Im Zweifel setz dich in einen guten Coworking-Space. So baust du viel schneller ein Netzwerk auf.

Ansonsten mal auf https://www.de-hub.de/ schauen oder einen Termin bei der IHK machen. Oder mal in der nächsten Universität fragen ob die etwas in diese Richtung anbieten.

Reicht doch erstmal wenn du lokal irgendwo sprichst und über Start-Up-Schools zu einem Pitch vor Investoren kommst. Da braucht es ja wieder nur einen der es spannend findet und der Ball kommt ins Rollen.

Ich wünsche dir viel Erfolg.
 
  • Gefällt mir
Reaktionen: gabbercopter
Kleines Bonus Update 11:10 Uhr

Seid 2 Stunden aktualisiert CB keine "view" zahlen aller Threads mehr :)
Mal sehen wo wir stehen wenns das erste mal wieder aktualisiert ^^
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben