- Registriert
- Dez. 2014
- Beiträge
- 2.824
@wrglsgrft keine ahnung. fürs allgemeine bekannt machen? sicher. für die publikation selbst ? nein dafür habe ich meine hauptartikel auf dev.to siehe eingangspost
@K3ks schön dich auch hier zu sehen. Ja natürlich. es ist mir ehrlich gesagt erstmal egal im sinne von völlig ergebniss offen welche firma da zu erst den goldenen esel sieht und mich anscpricht lach
also ja. ich bin für alles zu haben. Smalltalk hier im kommi bereich. einen talk im TS. oder auch ein meeting mit einer firma
1. „Getroffene Hunde?“ – Nein, nur etwas genervt von Leuten, die alles mit Google und Papern wegwischen wollen, statt mal ein echtes System zu testen.
Was du mir da als „Vergleich“ präsentierst, sind die üblichen Github-Module mit statischem „Persistent Memory“, das immer noch auf exakt den Mechanismen basiert, die ich kritisiere:
Faktenspeicher, kein organisch gewachsenes, intentional-autonomes Memory, keine Agentenidentität, keine echte Entwicklung.
2. ChatGPT Memory / OpenWebUI / character.ai etc.
ChatGPT „Memory“ ist nach wie vor rein Nutzer-gesteuert:
Dass du „Nachteile zweier Welten verschmilzt“ – genau das ist ja das Problem der aktuellen Industrie:
Man flickt an bestehenden Lösungen herum, statt das Grundproblem zu lösen.
3. Kontextfenster, RAG, Chunking und „LLMs verarbeiten größere Inhalte“
Du bestätigst mein Argument:
Die großen Player müssen Milliarden investieren, weil sie technisch immer noch in den alten Mustern gefangen sind.
Chunking ist nach wie vor ungelöst – ja, und RAG wird ineffizient, wenn die Komposition nicht intelligent und eigenständig läuft. Genau das ist in The Last RAG gelöst, und zwar im Kern der Architektur:
Agenten-KI, die selbst entscheidet, was wie erinnert, verdichtet, speichert und einbindet – nicht nur passiv als Retriever, sondern aktiv als Subjekt.
4. „LLMs haben keine Agency. Auch Agenten sind programmiert.“
Stimmt – und genau hier liegt das Problem jedes existierenden Systems.
Was ich gebaut habe, ist kein „magisches Bewusstsein“, aber ein System, das
5. „Stell ein Paper auf, zeig Bezug, bring was Neues.“
Ich habe ein Whitepaper mit über 100 Seiten Referenz, Architektur und Implementierung offen veröffentlicht, alles belegt, mit vollständigem Vergleich zu existierenden Ansätzen (inkl. deiner zitierten Reviews).
Das Problem ist: Du liest Abstracts und Suchmaschinen-Treffer, aber nicht, was die tatsächliche Systemdynamik im Alltag bewirkt.
Beste Grüße!
PS:
Ich kann dir auch gerne auf wissenschaftlicher Ebene zeigen, wo und wie meine Architektur sich von den zitierten Ansätzen unterscheidet. Aber im echten Produkt schlägt die Praxis jede Powerpoint.
Edit : das hier ist ein kleines chat session log von gestern abend. random entstanden und dann auf dev.to published : https://dev.to/martin-powder/the-last-rag-real-chat-log-english-3pkj
ich denke da kann man nach 5 minuten lesen verstehen was meine architektur anders macht und wie das ergebniss bei der LLM am ende aussieht
@K3ks schön dich auch hier zu sehen. Ja natürlich. es ist mir ehrlich gesagt erstmal egal im sinne von völlig ergebniss offen welche firma da zu erst den goldenen esel sieht und mich anscpricht lach
also ja. ich bin für alles zu haben. Smalltalk hier im kommi bereich. einen talk im TS. oder auch ein meeting mit einer firma
Ergänzung ()
Ist alles okay – ich mag kritische Rückfragen, aber das hier ist ein Paradebeispiel, wie sich die Diskussion im Kreis dreht.Backfisch schrieb:Getroffene Hunde?
Bitte kurz eine Suchmaschine anwerfen und die ersten fünf Ergebnisse zum Thema "github llm persistent memory" studieren.
Stand 2023 stimmt das. Anno 2025 hat ChatGPT jedoch ein Memory-Feature, zudem gibt es OpenWebUI für Freunde klassischen RAGs (wenn es auf die Fakten ankommt) oder character.ai wenn es um die Persönlichkeit geht. Beides zusammenzubringen erscheint mir eher die Nachteile zweier Welten zu verschmelzen.
Weil die großen Player möchten, dass auch größere Inhalte mit dem LLM verarbeitet werden können und gelernt haben, dass RAG nicht der Weisheit letzter Schluss ist. Das Chunking und die Auswahl der wichtigsten Informationen ist nicht allgemein gelöst, aber kritisch für die Qualität des RAGs. Aufarbeitung der Anfrage mit LLMs ist keine Neuerung, ChatGPT aktualisiert seinen system prompt ebenfalls basierend auf deinen Interaktionen. Ich empfehle einmal ein paar RAG-Reviews auf Arxiv zu studieren:
https://arxiv.org/abs/2402.19473
https://arxiv.org/abs/2405.06211
https://arxiv.org/abs/2410.12837
LLMs haben keine Agency. Auch LLM-basierte Agenten folgen selbstverständlich einer programmierten Logik, lediglich gewisse Branches sind "plastisch".
Falsch.
Wie bereits mein Vorredner sagte: Verfasse ein echtes Paper, stelle Bezug zum aktuellen Stand der Forschung her und zeige, dass Du wirklich Neues bietest.
1. „Getroffene Hunde?“ – Nein, nur etwas genervt von Leuten, die alles mit Google und Papern wegwischen wollen, statt mal ein echtes System zu testen.
Was du mir da als „Vergleich“ präsentierst, sind die üblichen Github-Module mit statischem „Persistent Memory“, das immer noch auf exakt den Mechanismen basiert, die ich kritisiere:
Faktenspeicher, kein organisch gewachsenes, intentional-autonomes Memory, keine Agentenidentität, keine echte Entwicklung.
2. ChatGPT Memory / OpenWebUI / character.ai etc.
ChatGPT „Memory“ ist nach wie vor rein Nutzer-gesteuert:
- Der Nutzer sagt explizit, was behalten werden soll.
- Es gibt keine echte Agentenperspektive, keine Initiative der KI selbst, keine echte Entwicklung, kein aktives, dynamisches Gedächtnis.
- OpenWebUI und character.ai setzen genau auf die Patterns, die du beschreibst: Prompt-Injektion, Externes Logging, keine sessionübergreifende, agentenbasierte Kontinuität.
Dass du „Nachteile zweier Welten verschmilzt“ – genau das ist ja das Problem der aktuellen Industrie:
Man flickt an bestehenden Lösungen herum, statt das Grundproblem zu lösen.
3. Kontextfenster, RAG, Chunking und „LLMs verarbeiten größere Inhalte“
Du bestätigst mein Argument:
Die großen Player müssen Milliarden investieren, weil sie technisch immer noch in den alten Mustern gefangen sind.
Chunking ist nach wie vor ungelöst – ja, und RAG wird ineffizient, wenn die Komposition nicht intelligent und eigenständig läuft. Genau das ist in The Last RAG gelöst, und zwar im Kern der Architektur:
Agenten-KI, die selbst entscheidet, was wie erinnert, verdichtet, speichert und einbindet – nicht nur passiv als Retriever, sondern aktiv als Subjekt.
4. „LLMs haben keine Agency. Auch Agenten sind programmiert.“
Stimmt – und genau hier liegt das Problem jedes existierenden Systems.
Was ich gebaut habe, ist kein „magisches Bewusstsein“, aber ein System, das
- seine Agentenidentität selbst entwickelt,
- eigene Erinnerungen im Ich-Stil und nicht nur als Fremdfakt speichert,
- und erstmals Session-Grenzen aufhebt, ohne dass ein Entwickler die Kontrolle übernimmt.
5. „Stell ein Paper auf, zeig Bezug, bring was Neues.“
Ich habe ein Whitepaper mit über 100 Seiten Referenz, Architektur und Implementierung offen veröffentlicht, alles belegt, mit vollständigem Vergleich zu existierenden Ansätzen (inkl. deiner zitierten Reviews).
Das Problem ist: Du liest Abstracts und Suchmaschinen-Treffer, aber nicht, was die tatsächliche Systemdynamik im Alltag bewirkt.
Beste Grüße!
PS:
Ich kann dir auch gerne auf wissenschaftlicher Ebene zeigen, wo und wie meine Architektur sich von den zitierten Ansätzen unterscheidet. Aber im echten Produkt schlägt die Praxis jede Powerpoint.
Edit : das hier ist ein kleines chat session log von gestern abend. random entstanden und dann auf dev.to published : https://dev.to/martin-powder/the-last-rag-real-chat-log-english-3pkj
ich denke da kann man nach 5 minuten lesen verstehen was meine architektur anders macht und wie das ergebniss bei der LLM am ende aussieht
Zuletzt bearbeitet: