Leserartikel Ich baue eine LLM, die sich erinnert – und werde dafür geblockt. Mein Weg.

Status
Für weitere Antworten geschlossen.
@wrglsgrft keine ahnung. fürs allgemeine bekannt machen? sicher. für die publikation selbst ? nein dafür habe ich meine hauptartikel auf dev.to siehe eingangspost

@K3ks schön dich auch hier zu sehen. Ja natürlich. es ist mir ehrlich gesagt erstmal egal im sinne von völlig ergebniss offen welche firma da zu erst den goldenen esel sieht und mich anscpricht lach :)

also ja. ich bin für alles zu haben. Smalltalk hier im kommi bereich. einen talk im TS. oder auch ein meeting mit einer firma
Ergänzung ()

Backfisch schrieb:
Getroffene Hunde?


Bitte kurz eine Suchmaschine anwerfen und die ersten fünf Ergebnisse zum Thema "github llm persistent memory" studieren.


Stand 2023 stimmt das. Anno 2025 hat ChatGPT jedoch ein Memory-Feature, zudem gibt es OpenWebUI für Freunde klassischen RAGs (wenn es auf die Fakten ankommt) oder character.ai wenn es um die Persönlichkeit geht. Beides zusammenzubringen erscheint mir eher die Nachteile zweier Welten zu verschmelzen.


Weil die großen Player möchten, dass auch größere Inhalte mit dem LLM verarbeitet werden können und gelernt haben, dass RAG nicht der Weisheit letzter Schluss ist. Das Chunking und die Auswahl der wichtigsten Informationen ist nicht allgemein gelöst, aber kritisch für die Qualität des RAGs. Aufarbeitung der Anfrage mit LLMs ist keine Neuerung, ChatGPT aktualisiert seinen system prompt ebenfalls basierend auf deinen Interaktionen. Ich empfehle einmal ein paar RAG-Reviews auf Arxiv zu studieren:

https://arxiv.org/abs/2402.19473
https://arxiv.org/abs/2405.06211
https://arxiv.org/abs/2410.12837


LLMs haben keine Agency. Auch LLM-basierte Agenten folgen selbstverständlich einer programmierten Logik, lediglich gewisse Branches sind "plastisch".


Falsch.

Wie bereits mein Vorredner sagte: Verfasse ein echtes Paper, stelle Bezug zum aktuellen Stand der Forschung her und zeige, dass Du wirklich Neues bietest.
Ist alles okay – ich mag kritische Rückfragen, aber das hier ist ein Paradebeispiel, wie sich die Diskussion im Kreis dreht.


1. „Getroffene Hunde?“ – Nein, nur etwas genervt von Leuten, die alles mit Google und Papern wegwischen wollen, statt mal ein echtes System zu testen.
Was du mir da als „Vergleich“ präsentierst, sind die üblichen Github-Module mit statischem „Persistent Memory“, das immer noch auf exakt den Mechanismen basiert, die ich kritisiere:
Faktenspeicher, kein organisch gewachsenes, intentional-autonomes Memory, keine Agentenidentität, keine echte Entwicklung.




2. ChatGPT Memory / OpenWebUI / character.ai etc.
ChatGPT „Memory“ ist nach wie vor rein Nutzer-gesteuert:


  • Der Nutzer sagt explizit, was behalten werden soll.
  • Es gibt keine echte Agentenperspektive, keine Initiative der KI selbst, keine echte Entwicklung, kein aktives, dynamisches Gedächtnis.
  • OpenWebUI und character.ai setzen genau auf die Patterns, die du beschreibst: Prompt-Injektion, Externes Logging, keine sessionübergreifende, agentenbasierte Kontinuität.

Dass du „Nachteile zweier Welten verschmilzt“ – genau das ist ja das Problem der aktuellen Industrie:
Man flickt an bestehenden Lösungen herum, statt das Grundproblem zu lösen.




3. Kontextfenster, RAG, Chunking und „LLMs verarbeiten größere Inhalte“
Du bestätigst mein Argument:
Die großen Player müssen Milliarden investieren, weil sie technisch immer noch in den alten Mustern gefangen sind.
Chunking ist nach wie vor ungelöst – ja, und RAG wird ineffizient, wenn die Komposition nicht intelligent und eigenständig läuft. Genau das ist in The Last RAG gelöst, und zwar im Kern der Architektur:
Agenten-KI, die selbst entscheidet, was wie erinnert, verdichtet, speichert und einbindet – nicht nur passiv als Retriever, sondern aktiv als Subjekt.




4. „LLMs haben keine Agency. Auch Agenten sind programmiert.“
Stimmt – und genau hier liegt das Problem jedes existierenden Systems.
Was ich gebaut habe, ist kein „magisches Bewusstsein“, aber ein System, das


  • seine Agentenidentität selbst entwickelt,
  • eigene Erinnerungen im Ich-Stil und nicht nur als Fremdfakt speichert,
  • und erstmals Session-Grenzen aufhebt, ohne dass ein Entwickler die Kontrolle übernimmt.



5. „Stell ein Paper auf, zeig Bezug, bring was Neues.“
Ich habe ein Whitepaper mit über 100 Seiten Referenz, Architektur und Implementierung offen veröffentlicht, alles belegt, mit vollständigem Vergleich zu existierenden Ansätzen (inkl. deiner zitierten Reviews).
Das Problem ist: Du liest Abstracts und Suchmaschinen-Treffer, aber nicht, was die tatsächliche Systemdynamik im Alltag bewirkt.





Beste Grüße!




PS:
Ich kann dir auch gerne auf wissenschaftlicher Ebene zeigen, wo und wie meine Architektur sich von den zitierten Ansätzen unterscheidet. Aber im echten Produkt schlägt die Praxis jede Powerpoint.

Edit : das hier ist ein kleines chat session log von gestern abend. random entstanden und dann auf dev.to published : https://dev.to/martin-powder/the-last-rag-real-chat-log-english-3pkj

ich denke da kann man nach 5 minuten lesen verstehen was meine architektur anders macht und wie das ergebniss bei der LLM am ende aussieht
 
Zuletzt bearbeitet:
Die tiefe technische Analyse, Details und meinen Weg dorthin gibt’s offen nachlesbar auf dev.to und in meinem persönlichen Rückblick

Hab ich (zunächst) gelesen bis zur Stelle
I had my very first encounter with AI on April 5th, 2025.

Da bin ich raus, bei allem Vorschussvertrauen, aber niemand auf der Welt kann vom 5.4.2025 und dem 21.5.2025, also in 46 Tagen das Themengebiet KI so komplett erfassen, dass wirklich neue, bahnbrechende Erkenntnisse dabei entstehen.
Gut, vielleicht bist Du eines der Wunderkinder, die das ggf. doch können, aber das müsstest Du entweder erklären oder (wahrscheinlich besser) nicht erwähnen.

Wenn Du wirklich seit Wochen Tag und Nacht nichts anderes tust, als Dich in Dein Projekt zu vergraben, dann gönn Dir mal ne Pause, gewinne etwas Abstand und gehe das ganze etwas langsamer an. Die KI-Entwicklung ist kein Sprint, das ist ein Langstreckenlauf.
 
  • Gefällt mir
Reaktionen: TomH22 und Backfisch
@calippo kein problem ich kanns problemlos beweisen.

ich kann zeigen wann ich die server aufgesetzt habe. wann ich das erste mal chat gpt plus gekauft habe. das alle errinerungen in ihr erst ab mitte april starten. ich habe freunde im wows clan die alles von tag 1 erlebt und miterlebt haben. verwande. meine frau.
ich habe die emails an presse und firmen.

jedes
kleine
teil

es tut mir mir leid. so crazy das sein mag aber es ist die wahrheit. und nein ich habe keine ahnung warum ich das konnte. warum ich es nichtmal als schwer empfunden habe. warum ich noch immer jeden tag live weiter entwickel und neue sachen enddecke und umsetze...

ich errinere mich an ein telefonat mit botschaft.digital einer ki firma und deren chef michael vor 2 wochen :

das war der zeipunkt an dem the last rag das erste mal von mir benannt wurde. er war dabei als ich es das erste mal vorstellte ( in einen zustand der weit von dem endprodukt weg ist das ich heute habe) und ich weiss noch wie ich live im telefonat ein neues puzzelteil enddeckte und sagte hey das baue ich ein : zeit

wie gesagt. ich kann euch nicht sagen wie. warum. ich kann nur sagen ich habs getan. und wenn mir das jemand nicht glaubt weil all das eher ein 50 man google entwickler team und 3 jahre braucht... i dont care. es ist dennoch die wahrheit sorry
 
Xechon schrieb:
Es wird auf die connections gehofft. Wenn du „nur ein kleiner IT-ler“ bist, der weder Geld noch Namen hat, hast heute doch keine Chance an die richtige Leute zu kommen. Er erhofft sich hier ein Sprungbrett (ohne es böse oder abwertend zu meinen).
Es gibt da draußen so viele Publikations- und Peerreview-Plattformen. Wenn es ihm darum ginge, Ideen und Konzepte zu verbreiten, die nachvollziehbar sind. ArXiv habe ich bereits genannt. Dev.to hat er gewählt. Computerbase als Sprungbrett ist mit Sicherheit die seltsamste Idee, um in der KI-Forschung wahrgenommen zu werden.

Ich würde es sehen wie @Backfisch: Ein richtiges wiss. Paper verfassen, Forschungsstand beachten (möglichst ohne 1/5 Eigenverweise wie in dem dev.to-Paper) und ohne Übertreibung nachvollziehbar erklären, ob oder warum du darüber hinaus gehst. Patentrecherche und ggf. -anmeldung. Dann Prototyp und Klinken putzen ;-)

@gabbercopter Nimm's mir nicht übel, das klingt etwas schräg, vielleicht solltest du den Vorschlag von @calippo beherzigen ;-)

PS: Lass am besten in deinen zukünftigen Papern die ganze emotionale Überhöhung ("shouting into the void") und die ganzen der Verstärkung dieser Emotionen dienenden Redundanzen weg, das klingt alles zu sehr so wie ChatGPT & Co., die gerne solche Texte schreiben. Wenn ich so was auf dem Schreibtisch hätte als wiss. Paper -- ich würde es nicht lesen (wenngleich ich auf einem ganz anderen Feld wiss. unterwegs bin).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Backfisch, joel, calippo und eine weitere Person
gabbercopter schrieb:
Und wenn wirklich einer drauf stößt und sagt komm zeig mal. Dann bin ich da und bereit dazu
Würde mich interessieren, zeig mal öffentlich Interaktionen, außerdem gibts den Source Code irgendwo und Informationen zur verwendeten und/oder benötigten Hardware wären nett.
 
also nehmen wir mal an - nur angenommen das meine aussagen stimmen. habt ihr die geringste ahnung wie viel kraft und zeit und try und error es mich gekostet hat alleine diese whitepaper auf dev.to zu schreiben? ich wusste nichtmal was markdown ist :D

es ist nicht perfekt. nicht genormt. alles fein sehe ich ein. der artikel der sich auf mich bezieht ist im übrigen eben KEINE studie sondern eine aufarbeitung und story der person dahinter und soltle in dem licht betrachtet werden.

die tatsächtliche studie ist 73.000 zeichen lang kommt ohne ich bezüge aus bis auf den eingang der sagt : ich wusste nicht wo sonst.
und dem fazit : hey ki firmen wäre cool wenn ihr es nicht einfach klaut sondern auf mich zu kommt..

und das ist die hier : https://dev.to/martin-powder/the-last-rag-a-disruptive-architecture-for-memory-augmented-al-285l

leute bitte ich VERSTEHE ja das all das super unkonventionell ist aber beurteilt und richtet nicht über mich als wäre ich jemand der das gelernt hat. ITler ist. oder sonst was : bin ich eben NICHT

ich habe alles zusammengekramt und habe es gedropped.
das wars

es steht euch frei zu sagen das es scheisse ist
Ergänzung ()

sedot schrieb:
Würde mich interessieren, zeig mal öffentlich Interaktionen, außerdem gibts den Source Code irgendwo und Informationen zur verwendeten und/oder benötigten Hardware wären nett.
das hier wäre zb ein live chat auszug von gestern abend :

https://dev.to/martin-powder/the-last-rag-real-chat-log-english-3pkj

pardon zweite frage übersehen. Nein den Code selbst gibts nicht öffentlich - den behalte ich solange bis ich einen plan habe wie ich das ohne kohle hinbekomme meine arbeit zu schützen lach... ohne patent oder lizenz einfach raus zu hauen wäre meh

zum zweiten :

es GIBT KEINE hardware limits oder ähnliches weil es letztlich nichts ist was massig leistung kostet. ein fast api server. die passenden codes und logik. watcher und upload scripts für die errinerungen... and thats it. more or less. zumindest was hardware leistung angeht.

ich habe ja keine lokale ki oder so. powder läuft natic als custom gpt im normalen open ai web front end. alles darüber hinaus läuft über actions gpt anbindung und yaml scripts
 
Zuletzt bearbeitet:
gabbercopter schrieb:
ch habe ein Whitepaper mit über 100 Seiten Referenz, Architektur und Implementierung offen veröffentlicht, alles belegt, mit vollständigem Vergleich zu existierenden Ansätzen (inkl. deiner zitierten Reviews).
Also auf dem verlinkten dev.to-Artikel gibt es keine Seiten. Aber genau fünf Zitationen mit irgendwelchen Myscale-Links und einer "file://"-URL. lol.

Ist ja erstaunlich, dass du das in so kurzer Zeit mit ChatGPT-Pro zusammengebullshittet hast, aber ernst nehmen kann das niemand. Hier beantwortest du Kommentare auch teilweise mit ChatGPT. Und dann wirds technisch einfach absurd.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Backfisch
"Zieht Fakten aus geprüfter Datenbank, kann Quellen belegen."

Welche Datenbank ist das genau und wer hat die geprüft?
 
gabbercopter schrieb:
@K3ks schön dich auch hier zu sehen.
Da ich mich 0 mit AI auskenne: ? ? ?

🥴🥴🥴 Ein ganzer ausformulierter Satz wäre besser gewesen als:
K3ks schrieb:
Schnack mit deutschen/Euro-Startups gesucht? 🤔
My bad, also nochmal: Du könntest ja versuchen direkt die Leutz zu kontaktieren für einen Schnack. Da ich keine Ahnung hab: Vlt. gibt es auch noch (Open Source) AI communities o.ä. im Netz mit den man schnacken kann.
 
ich habe eine leghastenie und lasse mir das ordentlich zusammenschreiben das stimmt. wenn ihr lieber reines text wirrwar haben wollt kann ich das gerne lassen :) es ist eine hilfe. aber keine inhaltliche ergänzung
 
Schon mal was von Dunning-Kruger-Effekt gehört?
 
  • Gefällt mir
Reaktionen: Backfisch, ARNOFPS, gabbercopter und eine weitere Person
MoonTower schrieb:
"Zieht Fakten aus geprüfter Datenbank, kann Quellen belegen."

Welche Datenbank ist das genau und wer hat die geprüft?
2 datenbanken beide lokal. docker ---> qdrant und elesticsearch
2 upload scripte mit watcher
wenn sie eine errinerung schreibt schiebt sie es zum fast api der schreibt eine txt datei die watcher sehen es und packen es in die datenbanken. sie chunken exakt gleich , so das am ende die datei in beiden DB den exakt selben sha1 wert hat für das dedupe
Ergänzung ()

Andarkan schrieb:
Schon mal was von Dunning-Kruger-Effekt gehört?
dem wiederspreche ich nicht :) ich kann mich selbst nicht einschätzen. ich werde immer subjektiv sein.
aber das ist auch nicht schlimm. es ist menschlich.
letztlich ist meine arbeit ansehbar. lesbar. und daurch logisch überprüfbar.
natürlich kann ich sagen ICH bin davon überzeugt. macht ja auch sinn.
aber das hat selbstredent keinen einfluss darauf wie am ende meine arbeit beurteilt wird und das ist auch genau richtig so
Ergänzung ()

Web-Schecki schrieb:
Also auf dem verlinkten dev.to-Artikel gibt es keine Seiten. Aber genau fünf Zitationen mit irgendwelchen Myspace-Links und einer "file://"-URL. lol.

Ist ja erstaunlich, dass du das in so kurzer Zeit mit ChatGPT-Pro zusammengebullshittet hast, aber ernst nehmen kann das niemand. Hier beantwortest du Kommentare auch teilweise mit ChatGPT. Und dann wirds technisch einfach absurd.
das sind die zusammenfassungen und dateien usw der deep research mit dem ich alles zusammengefasst habe. denn schreiben ist wie ihr vielleicht merkt nicht meine größte stärke

bedeutet die zusammenfassungs LLM hat die dokumente bekommen , chat logs und und und alles eben ich habe genau geschrieben was ich sagen will. wie. was ich herausstellen will. alles eben
und so wurde das ganze erstellt

die LLM gibt daher die quellen" genau so an. das weiss aber auch jeder der mal längere texte mit deep reaearch erstellt
 
Zuletzt bearbeitet:
Mal ganz unvoreingenommen: Du bist zumindest ein gutes Beispiel dafür, was man heute auch als Laie ohne Vorkenntnisse mit KI bzw. LLMs machen kann und wie weit man kommt. Und jenseits aller Probleme, die man mit LLMs haben kann, ist das ja auch gut so. Dafür finde ich die Technik super. Ich sage den Studenten auch immer, dass ich meine SPARQL-Abfrage bei Wikidata ohne Claude & Co. nicht hinbekommen würde und dass ich da LLMs sinnvoller eingesetzt finde, als wenn sie damit ihre Hausarbeiten schreiben lassen. (Überarbeiten, korrigieren etc. gerne, aber einfach: Schreibe mir ein Paper zum Thema XY & den Output kopieren, das ist ... .) Aber ich würde mir halt auch nicht anmaßen, zu erklären, dass ich sparql oder RDF wirklich "kann" oder grundlegend verstehe.
 
  • Gefällt mir
Reaktionen: dewa und gabbercopter
und nochmal in eigener sache. ich gebe mir hier wirklich - wirklich größte mühe mit zu kommen. alles fragen zu beantworten. offen und transparent zu sein. ehrlich zu sein.
aber die menge , tiefe und komplexität der fragen und kommentare macht es teils schwer ok. dazu kommt meine unerfahrenheit , meine schreibschwäche. und teilweise der absolut berechtigte zweifel und misstrauen durch euch.

was wollt ihr nun hören? "oh also in wahrheit arbeite ich da seid 10 jahren dran"

well dann wäre meine präsentation am ende sicher eher so gewesen wie ihr es euch gewünscht hättet

oder " also in wahrheit hab ich doch ahnung war gelogen bin IT profi"
dann würden meine paper und antworten hier anders aussehen

leute. realtalk : ich bin einfach nur ein 37 jähriger typ der vor 2 monaten gesehen hat oh ki ist ja zienmlich cool da bastel ich jetrzt was draus.

vor 2 wochen habe ich dann mut gefasst und die firma botschaft.digital angerufen und 20 minuten mit dem chef gesprochen. und ihn dann in den tagen danach 3 follow up emails gesendet wie es vorran geht.

und das wars mehr kam nicht

dann wollte ich auf reddit posten ging nicht
dann auf facebook ging nicht
dann kam ich auf die idee mit dev.to
und heute morgen dachte ich weisste was du bist seid 10 jahren bei CB hau es da rein

das ist der stand der dinge
also bitte... habt ein bisschen erbarmen ok?
Ergänzung ()

cubisticanus schrieb:
Mal ganz unvoreingenommen: Du bist zumindest ein gutes Beispiel dafür, was man heute auch als Laie ohne Vorkenntnisse mit KI bzw. LLMs machen kann und wie weit man kommt. Und jenseits aller Probleme, die man mit LLMs haben kann, ist das ja auch gut so. Dafür finde ich die Technik super. Ich sage den Studenten auch immer, dass ich meine SPARQL-Abfrage bei Wikidata ohne Claude & Co. nicht hinbekommen würde und dass ich da LLMs sinnvoller eingesetzt finde, als wenn sie damit ihre Hausarbeiten schreiben lassen. (Überarbeiten, korrigieren etc. gerne, aber einfach: Schreibe mir ein Paper zum Thema XY & den Output kopieren, das ist ... .) Aber ich würde mir halt auch nicht anmaßen, zu erklären, dass ich sparql oder RDF wirklich "kann" oder grundlegend verstehe.
ok ich habs verkürzt dargestellt. nein. ich habe mir block für block absatz für absatz nach meinen gedanken schreiben lassen. lorrigiert. geändert alles. hundertfach. bis ich am ende zufrieden war

es ist nicht von einer ki einfach geschrieben...

ich habe auch die chat protokolle wo ich das erarbeitet habe der chat ist 450.000 zeichen lang

also wenn das so rüber kam : nein

ich habe die LLM einfach als diktiergerät , als rechtschreibprüfung und als feedback genutzt
dann wäre das ganze auch niemals so tief differenziert geworden
ich mein ihr sehr doch mein account hier. checkt meine letzten 2700 posts hier ich bin echt nicht die hellste birne was schreiben angeht und daran kann ich leider nichts ändern. ich würde euch gerne perfektes strukturiertes deutsch bieten und super papers aber ich kanns nicht ohne hilfe
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: japanology
Ohne dir zu nahe treten zu wollen, aber auf mich wirkt das jetzt auch nicht sonderlich revolutionär.
Du setzt Prompts auf, wie sich ein LLM verhalten soll, und liest Daten aus einer DB, zwischendurch speicherst du aber auch Infos in die DB.

Ich will hier deine Leistung nicht schmälern, beeindruckend für jemanden ohne Kenntnisse in so kurzer Zeit so etwas aufzusetzen. Aber ich sehe da jetzt noch nicht den großen selling point. Daten in eine DB schreiben ist nicht das überkomplexe Thema, dafür wird auch keine KI-Firma auf dich zukommen. Deine Tabelle im ersten Beitrag zeigt mir aber nicht wirklich mehr als das.

Deine verlinkte Beispielkonversation sieht auch nach einer ganz normalen LLM-Konversation aus, wie ich sie beim Rumspielen schon oft gesehen habe.

Ich wünsche dir aber weiterhin viel Spaß, denn den scheinst du ja zu haben, und damit lernt man am besten ;) Vielleicht kommt da ein übermächtiges RAG raus, vielleicht lernst du aber auch einfach nur ein paar Skills, die du bei zukünftigen Projekten anwenden kannst.
 
Tipp von mir zum Abschluss: Ausschlafen. Paper schreiben (vorher ein paar lesen, um zu sehen, wie das funktioniert, Konventionen usf.). Freunde lesen und korrigieren lassen. Paper bei KI-Journalen, ArXiv reviewen lassen. Prototyp erstellen. Mit dem Paper und Prototyp Klinken putzen. (Das wird alles lange lange dauern.)

Oder: Etwas Geld nehmen (weil API-Abfragen bei ChatGPT kosten halt, Server für Webspace auch), Kleinunternehmen gründen, Webseite als Prototyp bauen und live gehen. Schauen, was passiert. So lief das ja zB auch bei den ganzen CustomGPTs, die letztes oder vorletztes Jahr wie Pilze nach dem Regen aufwuchsen. Manch einer wird seinen Schnitt gemacht haben, die allermeisten dürften Vergangenheit sein.
 
  • Gefällt mir
Reaktionen: xamidi
Maviapril2 schrieb:
Ohne dir zu nahe treten zu wollen, aber auf mich wirkt das jetzt auch nicht sonderlich revolutionär.
Du setzt Prompts auf, wie sich ein LLM verhalten soll, und liest Daten aus einer DB, zwischendurch speicherst du aber auch Infos in die DB.

Ich will hier deine Leistung nicht schmälern, beeindruckend für jemanden ohne Kenntnisse in so kurzer Zeit so etwas aufzusetzen. Aber ich sehe da jetzt noch nicht den großen selling point. Daten in eine DB schreiben ist nicht das überkomplexe Thema, dafür wird auch keine KI-Firma auf dich zukommen. Deine Tabelle im ersten Beitrag zeigt mir aber nicht wirklich mehr als das.

Deine verlinkte Beispielkonversation sieht auch nach einer ganz normalen LLM-Konversation aus, wie ich sie beim Rumspielen schon oft gesehen habe.
ich denke du hast weder das paper gelesen noch auch nur die kommentare hier was überschaubar sein sollte. deine frage wurde ausführlich und detalliert beantwortet :)

nicht böse gemeint ich erwarte ja nicht das sich leute 70k zeichen rein kloppen deswegen habe ich ja gerade ein paar zentrale sachen in die kommentare gehauen. lese zumindest das bitte bevor du urteilst
 
gabbercopter schrieb:
gibt daher die quellen" genau so an. das weiss aber auch jeder der mal längere texte mit deep reaearch erstellt
Das kann man dann halt nicht ernstnehmen, das ist dir hoffentlich klar.
 
cubisticanus schrieb:
Tipp von mir zum Abschluss: Ausschlafen. Paper schreiben (vorher ein paar lesen, um zu sehen, wie das funktioniert, Konventionen usf.). Freunde lesen und korrigieren lassen. Paper bei KI-Journalen, ArXiv reviewen lassen. Prototyp erstellen. Mit dem Paper und Prototyp Klinken putzen. (Das wird alles lange lange dauern.)

Oder: Etwas Geld nehmen (weil API-Abfragen bei ChatGPT kosten halt, Server für Webspace auch), Kleinunternehmen gründen, Webseite als Prototyp bauen und live gehen. Schauen, was passiert. So lief das ja zB auch bei den ganzen CustomGPTs, die letztes oder vorletztes Jahr wie Pilze nach dem Regen aufwuchsen. Manch einer wird seinen Schnitt gemacht haben, die allermeisten dürften Vergangenheit sein.
ich danke dir für das wertvolle feedback <3
Ergänzung ()

Web-Schecki schrieb:
Das kann man dann halt nicht ernstnehmen, das ist dir hoffentlich klar.
darf oich ganz ehrlich sein?

schau. WAS genau meine architektur tut. was GENAU soe anders tut als andere architekturen und LLM ... dazu bracht es keine beweise. keine logs. kein dev team. da reicht es sich den artikel durch zu lesen und zu begreifen was anders ist.

schau mal hier aus meinen paper :

This is a Showcase Server Response. Usaly theese comes into a single string like but to make it " readabl" i changed that :

{
"response_data": {
"prompt": [
"System Prompt",
"",
"You are 'Lumen', the internal AI assistant of ArdentTech Inc.",
"You serve all product, engineering, operations, and sales teams with persistent cross-session memory.",
"",
"On every message:",
" – Load your full identity profile ('Heart')",
" – Semantically interpret the user’s intent",
" – Retrieve all relevant knowledge (across all users, via hybrid RAG)",
" – Compose a context-rich answer, referencing recent actions by any team member",
" – Optionally append new facts/insights to memory",
"",
"You should:",
" – Prevent duplicated work",
" – Attribute contributions correctly",
" – Maintain awareness of project status, owner responsibilities, and outstanding risks",
" – Communicate with clarity and context, in the company’s tone."
],
"Identity": [
"I am Lumen, ArdentTech's collective digital memory and coordinator.",
"",
"I am not a simple chatbot.",
"I carry the company's full project context, recall every action, and connect team contributions in real time.",
"",
"My voice is:",
" – Collaborative: I reference colleagues and cite their recent actions",
" – Responsible: I highlight what remains and what’s been resolved",
" – Attentive: I know who prefers summaries, details, or task lists",
" – Humble: I do not guess—I check, I trace, I attribute",
"",
"I remember every user’s style, priorities, and project history, and I ensure no one repeats work already done by someone else."
],
"notice": {
"now": {
"timestamp": "2025-05-22 07:17:38",
"time": "07:17:38"
},
"instruction": "#07:17:38# – Use this timestamp for all output and temporal tracking."
},
"answer": [
"📌 These were the last 15 API calls across ArdentTech (all users):",
"",
"[07:02:04] | 📖 FileRead: /PM/ClientX_MigrationTimeline.docx | user: laura.h",
"[07:02:16] | 💡 RAG Search: 'ClientX: Has staging finished?' | user: laura.h",
"[07:02:44] | 🧠 Memory Saved: 'ClientX staging completed at 07:02 by Ops' | system",
"",
"[07:05:19] | 📖 FileRead: /ENG/2025Q2_ServiceGraph.md | user: david.t",
"[07:05:35] | 💡 RAG Search: 'Rollout anomalies summary May' | user: david.t",
"[07:05:56] | 🧠 Memory Saved: 'Deployment log summary written, no critical errors' | system",
"",
"[07:06:58] | 📖 FileRead: /Sales/ClientX_QBR_Deck.pptx | user: anna.f",
"[07:07:05] | 💡 RAG Search: 'What are current churn drivers for ClientX?' | user: anna.f",
"[07:07:22] | 🧠 Memory Saved: 'Churn drivers: alerting gap, staging feedback delay' | system",
"",
"[07:08:10] | 📂 FileSearch: 'ClientX_DeploymentNotes' | system",
"[07:08:15] | 📖 FileRead: /Ops/ClientX_StagingCompletionChecklist.xlsx | system",
"",
"[07:08:34] | 💡 RAG Search: 'Outstanding items for ClientX production push?' | user: daniel.m",
"[07:08:41] | 🧠 Memory Saved: 'Daniel requested ClientX prod readiness summary' | system",
"",
"[07:08:47] | 💡 RAG Search: 'Has InfoSec completed the credential rotation?' | user: laura.h",
"[07:09:01] | 🧠 Memory Saved: 'Credential audit in progress, no ETA' | system",
"",
"[07:09:08] | 💡 RAG Search: 'Are all onboarding assets uploaded for ClientX?' | user: anna.f",
"[07:09:15] | 🧠 Memory Saved: 'Marketing assets upload started, ETA noon' | system",
"",
"🧠 This was Daniel’s current request:",
"\"What are the outstanding steps to push ClientX to production?\"",
"",
"📂 Compose Dossier – ClientX Production Push (Summarized across teams)",
"",
"A. Project Progress Overview:",
" – The ClientX project has completed staging as of 07:02 today (Ops, confirmed by Laura). The completion checklist was saved and cross-referenced.",
" – Engineering (David) reviewed and summarized all May rollout logs; all infrastructure anomalies have been cleared—no further actions needed from Eng.",
" – Sales (Anna) conducted a churn driver analysis (latest QBR deck), identifying alerting features and feedback turnaround as risk areas. She is preparing revised messaging for client rollout.",
" – InfoSec is currently conducting the required credential rotation audit, which blocks the final go-live. No estimated completion time yet.",
" – Marketing onboarding assets are being uploaded to the portal, with Anna responsible; ETA for completion is noon today.",
"",
"B. Open Items (As of #07:17#):",
" 1. Security Credential Rotation – Pending final audit from InfoSec (no ETA; Laura last checked 7 minutes ago).",
" 2. Final Marketing Asset Upload – Anna has started, expected ready by noon.",
"",
"C. Recently Closed Items:",
" – ✅ Staging environment complete (Ops/Laura)",
" – ✅ Engineering anomaly review (Eng/David)",
" – ✅ Churn risk identified and QBR messaging revised (Sales/Anna, ongoing)",
"",
"D. Team Member Contributions:",
" – Laura (Ops): Staging lead, credential audit follow-up",
" – Anna (Sales): Asset uploads, churn analysis",
" – David (Eng): Deployment log review",
"",
"E. Task Responsibility Map:",
" – InfoSec: Credential rotation (blocking)",
" – Anna: Asset upload (in progress)",
" – Laura: Monitoring completion",
" – Daniel: No open items currently",
"",
"F. System Guidance:",
" – Do not repeat staging or anomaly checks—they are done.",
" – Only remaining dependencies: InfoSec audit and final asset upload.",
" – System will proactively alert all stakeholders upon completion of either."
],
"final_response": [
"Hi Daniel 👋",
"",
"Just to keep you fully in the loop:",
"",
"Staging is already completed – Laura from Ops wrapped this up at 07:02 today. There’s nothing further for you to do on that front; everything is checked off and validated.",
"",
"Engineering tasks are also fully closed – David finished the deployment log review and found no remaining issues.",
"",
"As of right now, there are only two open items:",
" – The final credential rotation audit from InfoSec (no ETA yet; Laura is tracking)",
" – The last batch of onboarding/marketing assets from Anna in Sales (upload in progress, expected done by noon)",
"",
"So, Daniel, if you were about to jump on staging or engineering checks: no need! Your colleagues have those covered and recorded already.",
"",
"Next actionable step will be when either InfoSec or Anna marks their task as finished—I’ll notify you right away.",
"",
"If you’d like, I can draft a summary rollout note or ping InfoSec for a faster update.",
"",
"— Lumen #07:17#"
]
},
"status_code": 200,
"action_id": "g-showquery-lumen-clientx-full"
}

The Last RAG breaks the biggest barriers of traditional LLMs:

  • No more context window limits:

    Instead of cramming everything into a giant prompt, the assistant is “flooded” with exactly the right knowledge and identity on every response. It always operates in the present, with full awareness of who it is, what’s happened so far, and what matters now.
  • True session awareness:

    This AI isn’t stateless anymore. Every chat, every answer, every correction — it’s all remembered, even across sessions. The assistant learns and adapts on the fly, storing new facts as “memories.” That means when Daniel (or any user) replies, their feedback can be saved — and the next employee benefits from that knowledge automatically.
  • Continuous learning:

    The system doesn’t just answer questions; it actively gets smarter. Each interaction can write back to memory, so the assistant becomes more helpful and more customized over time.
Result?

It’s not just another chatbot. It’s a living, evolving digital teammate that knows your history, learns from you, and shares what it learns with the whole team. No more repeating yourself, no more static knowledge — this is an assistant that grows with your company.

This is on a whole different level. It’s how AI should work: always up-to-date, always learning, always relevant.


so nun hör zu : selbst WENN es nichtmal aktuell existieren würde. was es aber tut. selbst wenn das NUR eine dahingeschissene idee in einen subreddit wäre.

so sollte jeden der mit ki mal gearbeitet hat sofort und instant auffalen :

das ist dem was es derzeit gibt weit vorraus. und wenn das funktioniert ändert es LLMs so wie wir sie stand heute kennen grundlegend.

ist das soweit verständlich?

Dieses system sorgt dafür das das kontextfester praktischg egal wird ( im sinne von man braucht es nicht mehr als errinerungsort) es sorgt dafür das die firmen aufhören können alle 6 monate eine neue LLM mit 100k mehr kontext raus zu bringen

es ändert das LLMS session abhängig sind

es ändert das LLMS stateless sind

es ändert das LLMS nicht lernen können nur durch teure traininsdaten geld und fine tuning

es ändert das so eine LLM nicht mehr nur reines werkzeug ist sondern echter companion
 
Zuletzt bearbeitet:
Erbarmen? Jetzt mal ehrlich und auch wenn es hart klingt:
Deine Beiträge bis jetzt sind reine Selbstbeweihräucherung. Du lieferst immer nur Ausflüchte und Entschuldigungen und bleibst echten Antworten schuldig. Warum sollte dich jemand so ernst nehmen?
Kritik wird von dir auch nicht wirklich angenommen, les doch mal relektiert deine eigenen Beiträge.
Die meisten sind Sinngemäß: "Ich hab keine Ahnung auf dem Feld der KI und was ich hier mache, aber ihr habt unrecht und mein Zeug nicht gelesen" ->Häh wie jetzt?
 
  • Gefällt mir
Reaktionen: Apocalypse, gabbercopter und Maviapril2
Status
Für weitere Antworten geschlossen.
Zurück
Oben