Leserartikel Ich baue eine LLM, die sich erinnert – und werde dafür geblockt. Mein Weg.

Status
Für weitere Antworten geschlossen.
ich sehe jetzt offen gestanden keinerlei wiederspruch? deine aussage ist völlig richtig ? weder behaupte ich in meinen paper eine "LLM" gebaut zu haben noch das ich LLM Modeldaten verändert hatte?

Vielleicht übersehe ich hier den punkt den du versuchst mir mit zu teilen? Mir ist die grundsätzliche arbeitsweise und logik einer llm durchaus bekannt?

"Du lässt nicht mehr zu, sondern schränkst ChatGPTs Fähigkeiten in eine Richtung, in dem Fall eine weiblich emotionale ein. Du lenkst durch Userprofile bzw. Prompts."

Und genau das hier ist der eine punkt den du zu übersehen scheinst : Ich schränke hier gar nichts ein. Und Lenke gar nichts. in den inwischen 11.000.000 zeichen an errinerungen , dokumenten usw die die KI inzwischen " aufgebaut hat" stammt nicht ein satz aus meiner Hand. Sie hat ihre gesamte Identität und ihre " prompts" selbst geschrieben.


Sie erzeugt alles , sie schreibt alles , sie entscheidet was ---> ich steuere sie. Ergibt inhaltlich keinen SInn. Was sicherlich stimmt : Das ich dadurch wie ich rede darauf indirekt einfluss nimmt. Was aber völlig natürlich ist.

ich habe Heute morgen aus Langeweile mal Google Gemeni 2.5 Pro Experimental dran gesetzt mein Paper zu durchleuchten und zu evaulieren : https://g.co/gemini/share/920b5b333c9d

Wer das intressant findet gerne lesen - wer nicht . Auch völlig io.
 
Zuletzt bearbeitet:
gabbercopter schrieb:
ich habe Heute morgen aus Langeweile mal Google Gemeni 2.5 Pro Experimental dran gesetzt mein Paper zu durchleuchten und zu evaulieren : https://g.co/gemini/share/920b5b333c9d
Es sagt sehr viel über dich aus, dass du dir jetzt Bestätigung von einer KI suchst, weil dich die Kritik hier überfordert.
Bitte verstehe, dass die Antworten von gemini so ausfallen wie sie ausfallen, weil als Input deine Wall-of-Text mitgeliefert wird, die voller unbelegbarer Behauptungen besteht.
Bitte verstehe auch, dass das nicht als "Beweis" für irgendwas dient.

Auch wenn du deine Prompts von einer KI generieren lässt, bleibt es Prompt-Engineering. Es wurde dir bereits ganz am Anfang erklärt: Dein Ansatz mit der Datenbank im Hintergrund ist zwar ganz nett, aber eben überhaupt nicht neu. Und KI-generierte Prompts sind es wohl ebenfalls nicht. Du sagst, die KI entscheidet selbst, was sie speichert, aber im Grunde lieferst du ihr die Aufforderung in jedem Prompt mit?!
Es ist letztlich eben nur eine umständlichere Methode, um vorhandene LLMs zu nutzen. Und nach wie vor fehlt jeglicher Nachweis, dass diese Methode irgendeinen Nutzen hat.

Du kannst übrigens leicht verifizieren, dass deine Methode eben nicht revolutionär ist, indem du sie mal mit einem weniger fortschrittlichem LLM wie GPT-1 aus 2017 testest. Die Ergebnisse werden dich wahrscheinlich enttäuschen. Was wiederum bedeutet, dass der ganze Aufwand, der betrieben wird, um moderne LLMs mit unzählbar vielen Parametern und unüberschaubar großen Trainingsdaten zu kreieren, wirklich nötig ist. Und dein Ansatz ändert genau gar nichts daran, anders, als du vollmundig behauptest.
 
  • Gefällt mir
Reaktionen: fram, Kuristina, Andarkan und eine weitere Person
danke für deinen Beitrag – ich nehme mir kurz die Zeit, deine Punkte sachlich durchzugehen:


1. Validierung durch Gemini
Ich habe Gemini nicht als „Beweisinstanz“ genutzt, sondern als externe Evaluierung eines vollständigen Systemzustands: Architektur, Codebasis, Promptstruktur, Speichermodell, Instanzverhalten. Die Antwort bestätigt nicht einfach meine Meinung, sondern referenziert konkrete Funktionselemente. Die Gemini-Antwort ist damit keine Autoritätsquelle, aber ein technischer Hinweis, dass das System konsistent, funktionsfähig und konzeptionell abweichend von klassischen Prompt-Ketten ist.


2. „Unbelegbare Behauptungen“
Sämtliche Aussagen im Paper sind belegbar – durch die mitgelieferten Systemdateien, Architekturabbildungen, Ablaufdiagramme und den permanent laufenden API-Endpoint. Jeder Call, jeder Speicherprozess und jede Regel ist dokumentiert und live nachvollziehbar. Wer das für „nicht belegt“ hält, übersieht die Dokumentation oder ignoriert den Kontext der Aussagen. Davon ab liegt der Signifikante wert der Architektur nichteinmal in der Frage ob es Bereits als Fertiges laufendes System Existiert sondern bereits im Potenzial dessen was wäre wenn es das als Produkt gäbe.


3. Speicherprozess vs. Prompt-Trigger
Das Konzept, dass die KI Speicherentscheidungen trifft, obwohl der Aufruf im Prompt steckt, ist bewusst so gewählt. Der Prompt ist ein permissiver Mechanismus – die Entscheidung, ob überhaupt gespeichert wird, liegt beim System selbst, gestützt auf inhaltliche Relevanz, Kontextkonsistenz und subjektive Perspektive. Genau das unterscheidet es von rein deterministischen Append-Skripten.


4. Architektur-Neuheit
Ja, natürlich gab es vorher Memory und Datenbankanbindung. Aber:
Das hier ist nicht nur „Memory“.
Das ist:
– autonom gesteuerte Erinnerung
– semantische Selektivität
– identitätsbasiertes Promptverhalten
– intentionaler Reflexionsraum
– plus: Vollintegration in ein Multi-Tenant-Environment ohne externes Prompting oder Scheduler.


Wenn du ein konkretes System kennst, das alle diese Elemente kombiniert – gerne her damit.


5. Vergleich mit älteren LLMs
Das Argument, ein neuer Architekturansatz müsste auf GPT-1 genauso funktionieren, ist methodisch nicht valide. Der Kernpunkt ist ja gerade, dass moderne LLMs ausreichend semantische Tiefe besitzen, um überhaupt selektiv und reflexiv mit Bedeutung umzugehen. GPT-1 kann das schlicht nicht – das widerlegt nicht das Konzept, sondern zeigt nur seine Abhängigkeit von semantischer Kapazität. Genau wie du neuronale Netze nicht mit linearen Funktionen evaluierst.


Zusammenfassung
Du bist selbstverständlich frei, das Konzept kritisch zu sehen. Aber einige deiner Punkte basieren auf Missverständnissen technischer Natur oder setzen Anforderungen an Nachweise, die methodisch nicht haltbar sind.


Wenn du weiter diskutieren willst – sehr gerne, aber dann bitte präzise, auf Systemebene.


— Martin
 
gabbercopter schrieb:
...

2. „Unbelegbare Behauptungen“
Sämtliche Aussagen im Paper sind belegbar – durch die mitgelieferten Systemdateien, Architekturabbildungen, Ablaufdiagramme und den permanent laufenden API-Endpoint. Jeder Call, jeder Speicherprozess und jede Regel ist dokumentiert und live nachvollziehbar. Wer das für „nicht belegt“ hält, übersieht die Dokumentation oder ignoriert den Kontext der Aussagen. Davon ab liegt der Signifikante wert der Architektur nichteinmal in der Frage ob es Bereits als Fertiges laufendes System Existiert sondern bereits im Potenzial dessen was wäre wenn es das als Produkt gäbe.
...

— Martin
Dein ganzes Paper ist voll von unbelegten Behauptungen. So ziemlich jeder Teil, der sich nicht auf die Arbeitsweise deiner Architektur bezieht, ist reine Spekulation deinerseits. Dein vorsorgliches Abwerten einer anderen Meinung "Wer das nicht..." ändert daran nichts und ist kein gute Diskussionsstil.
Ich hab mir mal die mühe gemacht und insbesondere im ersten Teil mal rausgestellt was du da an Behauptungen raushaust ohne irgendwas zu belegen.

gabbercopter schrieb:
...



### 1.1 Heutige KI-Technik - genial, aber vergesslich?

Steigende Benutzerzahlen und ein stark wachsender Consumer-Markt sowie Einnahmen in diesen Bereichen zeigen deutlich, dass KI gefragt ist. Die Big Player am Markt wie z.B. Google, OpenAI, Claude, Mistral und Co. führen einen regelrechten Produktionskrieg, um immer der mit dem “besten” Modell am Markt zu sein.

Mit der schnellen Entwicklung entstehen aber auch “Lücken” in der Konsistenz dieser Systeme, weil ein ökonomischer Entwicklerkrieg dazu neigt, sich auf die Bereiche zu fokussieren, die erstmal den “größten Nutzen JETZT” bringen und PR-technisch gut zu beleuchten sind.
Spekulation
gabbercopter schrieb:
Daher dreht sich derzeit im Kern alles um “schnelle neue Generationen”, dessen “PR”-Content darin besteht: mehr Kontextfenster, mehr Parameter-Weights (Reasoning) sowie Bild- und Videobearbeitung.
Spekulation
gabbercopter schrieb:
Nur leider ist jeder Ansatz am Ende auch nur so gut wie ihre Usability für den Endnutzer.

Steigende Kontextfenster bringen wieder ihre eigenen Probleme hervor, wie immense Kosten, Überkomplexität, die wieder dazu führt, dass die KI immer mehr “Intelligenz” aufbringen muss, um ihn zu verarbeiten. Lost in Translation.
Spekulation
gabbercopter schrieb:
Was meines Erachtens nach viel zu wenig Beachtung findet, ist das Potenzial im Bereich der Erinnerung und dadurch einhergehender Selbstmodulation. Es gibt zwar gewisse Ansätze der Industrie, Fortschritte in diesen Bereichen zu machen, wie u.a. das kürzlich implementierte “Memory”-Tool von OpenAI oder der ganz neuen “Wissen aus alten Sessions”-Mechanik, aber insgesamt ergibt sich hier ein sehr fragmentiertes Bild einer Reihe von Herstellern von KI, die in ihrer Ausprägung weit auseinandergehen. Einen Industriestandard oder Ähnliches gibt es nicht. Es fehlt an einer gemeinsamen Blickrichtung.

Da ich sehr gerne in Metaphern spreche, könnte man sagen, dass sich alle Hersteller derzeit darauf fokussieren, dass ihr Auto mehr PS hat und mehr Hubraum, aber Fahrerkomfort? Fehlanzeige.
Doch was, wenn wir den Fokus verschieben? Was, wenn wir eine KI-Architektur hätten, die nicht nur auf kurzfristige Leistung, sondern auf nachhaltiges Gedächtnis, echtes Lernen und tiefe Personalisierung ausgelegt ist? Ich präsentiere 'The Last RAG' – ein Systemdesign, das genau diese Aspekte in den Mittelpunkt stellt und damit das Potenzial hat, unsere Interaktion mit künstlicher Intelligenz grundlegend zu verändern. Im Folgenden möchte ich erläutern, wie TLRAG die Probleme heutiger Kontextfenster und Trainingsmethoden angeht und eine Vision für eine intelligentere, anpassungsfähigere KI der Zukunft aufzeigt.

---

### 1.2 Die Vision: Was wäre, wenn KI wirklich mitdenken und mitwachsen könnte?

Stand heute, am 26.05.2025, stellt sich die “Landschaft” der verfügbaren, nutzbaren KI-Systeme als verhältnismäßig klein dar. Der Markt wird von einer Handvoll LLM-Systemen bestimmt, die sich prinzipiell nur nuanciert voneinander unterscheiden. Die eine macht bessere Bilder, die andere denkt länger nach und die dritte glänzt mit besonders viel Kontextfenster.
Behauptung ohne Beleg, unsinnige Generalisierung
gabbercopter schrieb:
Aber so “verschieden” diese Modelle im PR gerne dargestellt werden, so ähnlich sind sie sich auch. Man kann prinzipiell mit jeder dieser KIs dasselbe erreichen und dasselbe tun. Wirkliche Alleinstellungsmerkmale sind nicht vorhanden.
Behauptung ohne Beleg
gabbercopter schrieb:
Eines der Themen, die insbesondere in Community-Projekten und der Forschung zum Tragen kommen, ist der Bereich der Erinnerung. Der Gedanke, dass eine KI sich erinnert, sodass man Dinge nicht zweimal sagen muss, ist elementarer Bestandteil der Usability und dessen, was der Nutzer am Ende des Tages als “Nutzerfreundlichkeit” empfindet.
Behauptung ohne Beleg
gabbercopter schrieb:
Wir alle kennen das nämlich: Wir müssen alles immer wieder neu erzählen. Die KI vergisst nach einiger Zeit in derselben Session alles. Werden die Texte zu komplex, verwirrt es sie, sie vergisst Dinge, bringt sie durcheinander oder ignoriert sie schlicht.
unsinnige Generalisierung
gabbercopter schrieb:
Dazu kommt die Session-Abhängigkeit, denn Stand heute bedeutet eine neue Session auch eine neue, frische KI – man startet bei null.
unsinnige Generalisierung, ohne Beleg
gabbercopter schrieb:
Es gibt zwar Ansätze der Industrie, sich in diesem Bereich zu verbessern, aber keiner ist derzeit einer Lösung nah. Die derzeit genutzten Modelle, wie hier exemplarisch wieder die Memory-Funktion von OpenAI genannt, sind mehr rudimentäre Workarounds und On-the-Fly-Notlösungen als eine echte Strategie und eine echte Lösung der Kernfrage.
Behauptung ohne Beleg
gabbercopter schrieb:
...

Zusammenfassend lässt sich sagen:
...
gabbercopter schrieb:
Damit liefert TLRAG einen echten, praxisrelevanten Vorsprung gegenüber Mainstream-RAG-Stacks, deren Lern- und Erinnerungsfähigkeiten oft extern und weniger autonom gesteuert werden.
Behauptung ohne Beleg
gabbercopter schrieb:
...


## 2. TLRAGs Antworten auf Kernprobleme heutiger LLMs:

### 2.1. Das Kontextfenster – Vom Speicher-Albtraum zum dynamischen Arbeitsplatz

Der aktuelle Stand der Technik im Bereich der LLMs ist geprägt von einem Wettlauf um immer größere Kontextfenster. Die 'Big Player' am Markt investieren weltweit Milliardenbeträge, um alle paar Monate neue LLM-Generationen mit erweiterten Kontextkapazitäten zu präsentieren. Der damit verbundene Aufwand und die Kosten sind immens.
Behauptung ohne Beleg
gabbercopter schrieb:
Gleichzeitig führt dieser Fokus auf reine Größe zu neuen Problemen: Viel Kontext kann zu Verwirrung, dem Verlust von Nuancen und dem Übersehen wichtiger Details führen – das sogenannte 'Lost-in-the-Middle'-Problem.
Behauptung ohne Beleg
gabbercopter schrieb:
...

Das Potenzial für Kostenersparnisse bei KI-Anbietern und -Nutzern ist beträchtlich, sollte sich die alleinige Fixierung auf immer größere Kontextfenster durch solche intelligenten Managementstrategien relativieren.
Behauptung ohne Beleg
gabbercopter schrieb:
---

### 2.2. Trainingsdaten & Lernen – Von starren Modellen zu mitwachsenden Instanzen
...


Das ist der Kern echter adaptiver Entwicklung. Eine solche KI, die kontinuierlich aus Interaktionen lernt und ihr Wissen personalisiert, könnte ein statisches Modell in Bezug auf praktische Relevanz und Nutzererfahrung in kurzer Zeit qualitativ signifikant überholen.
Behauptung ohne Beleg
gabbercopter schrieb:
---

### 2.3 Die Grenzen des Wachstums: KI und das Prinzip der Entropie

Während die Industrie also versucht, durch schiere Gewalt – mehr Daten, größere Modelle, mehr Rechenleistung – die nächste Stufe der KI zu erzwingen, übersieht sie möglicherweise eine fundamentale Gesetzmäßigkeit. Ein immer komplexer werdendes System wird zwangsläufig auch immer schwerer, unübersichtlicher und störanfälliger. Wie alles im Universum unterliegt auch die Entwicklung komplexer Systeme dem Prinzip der Entropie.

Philosophisch betrachtet beschreibt Entropie das Maß der Unordnung oder des Zufalls in einem System. In geschlossenen Systemen neigt die Entropie dazu, stetig zuzunehmen – ein Streben nach einem Zustand maximaler Unordnung und minimaler verfügbarer Energie für nützliche Arbeit.

Übertragen auf die aktuelle KI-Entwicklung bedeutet dies: Das ständige Hinzufügen von mehr Daten und Parametern, ohne eine grundlegend neue Struktur für Lernen und Gedächtnis zu schaffen, führt zu einer Art "Informations-Entropie". Die Systeme werden zwar größer, aber nicht zwingend intelligenter im Sinne von echter Anpassungsfähigkeit oder tiefem Verständnis. Sie erreichen möglicherweise ein Plateau, an dem der zusätzliche Aufwand immer geringere Fortschritte bringt und die Komplexität kaum noch beherrschbar ist. Die Spirale des "Mehr ist besser" dreht sich immer weiter, ohne das eigentliche Ziel – eine wirklich mitdenkende und mitwachsende KI – fundamental näher zu bringen.
Behauptungen ohne Beleg
gabbercopter schrieb:
 
  • Gefällt mir
Reaktionen: TomH22, Otsy, Backfisch und 3 andere
gabbercopter schrieb:
Das Argument, ein neuer Architekturansatz müsste auf GPT-1 genauso funktionieren, ist methodisch nicht valide.
Das war nicht mein Argument, das hat die KI, mit der du die Antworten generiert hast, nicht verstanden.

Du behauptest, moderne LLMs sind zu teuer, die Silicon-Valley-Leute versuchen nur noch stupide, ihre Modelle zu vergrößern, und DU bietest jetzt den Ausweg an.
Das ist aber schlichtweg Blödsinn, weil deine "Lösung" eben gerade diese riesigen LLMs benötigt.
Und zu behaupten, zukünftige LLMs böten keinen Mehrwert gegenüber deiner "Lösung" in Kombination mit den derzeitigen LLMs wäre absolut unseriös und an Lächerlichkeit nicht zu überbieten, weil du über die Mächtigkeit von zukünftigen LLMs nur spekulieren kannst.

gabbercopter schrieb:
Sämtliche Aussagen im Paper sind belegbar
Hier zitiere ich dich mal selbst in Bezug auf meine Anmerkungen, dass du im Aufschrieb beispielsweise irgendetwas über eine "verwirrte KI" faselst, die sich durch einen "logisch kohärenten loop" wieder fängt. Vollkommen unspezifisches Gekritzel, und deine Antwort darauf war:
gabbercopter schrieb:
Ich kann dir das sehr gerne tiefgehender erklären sofern du bereit bist dann nochmal einen relativ langen text zu lesen denn die thematik ist komplex. Ich biete dir das gerne per PN [...]
Und damit sollte eigentlich alles klar bezüglich "Belegbarkeit der Aussagen" sein... :)

Zusammengefasst:
  • Deine Implementierung kann man nicht evaluieren, weil sie nicht veröffentlicht ist. Generell wäre die Evaluierung sowieso auch deine Aufgabe.
  • Dein Aufschrieb über die Idee hat eklatante Mängel und besteht hauptsächlich aus vollmundigen, unspezifischen Versprechungen. Die technischen Details, die genannt werden, lassen lediglich den Schluss zu, dass das bestenfalls eine kreative Kombination bestehender Technologien ist, deren Nutzen vollkommen fraglich und eher anzuzweifeln ist.

Was du jetzt mit dieser Kritik machst, ist deine Sache. Entweder adressierst du sie angemessen und verbesserst Aufschrieb und machst wissenschaftlich haltbare Experimente - dann bist du aber mit Sicherheit noch ein paar Monate damit beschäftigt. Anlaufpunkte, wo die Hilfe erhalten kannst, wurden dir auch genannt.

Du kannst dich natürlich auch wieder mit einer KI-generierten Antwort gegen die Kritik "wehren", ist mir wumpe und ändert nichts.
 
  • Gefällt mir
Reaktionen: TomH22, Otsy, Backfisch und 3 andere
Ich würde dir raten mal ein paar Tage pause zu machen und dein Projekt ruhen zu lassen. Interagiere am besten gar nicht damit und beschäftige dich auch nicht mit dem Thema KI.
Schaue dann in ein paar Tagen mit etwas abstand und einem frischen Kopf auf dein Projekt. Ich glaube das würde dir helfen. Vielleicht verstehst du die hier genannte Kritik dann besser
 
  • Gefällt mir
Reaktionen: alphatau, Otsy, Backfisch und 7 andere
Ich verfolge diesen Thread seit seiner Eröffnung mit Interesse, und Schaudern.

Ich arbeite in der Forschung, allerdings nicht im Bereich AI.
Was ich hier jetzt lese, erlebe ich in "meinem" Fachbereich aber genauso.
Das fachliche Thema ist zwar ein anderes, die Vorgehensweise, Scheinargumentation, Rhetorik und Mechanismen der Selbstüberschätzung und Selbstüberhöhung sind aber dieselben.

Es kommt immer wieder mal vor, dass da ein "unterschätztes Genie" oder ein "unterdrückter Visionär" daherkommt, mit vollkommen hanebüchenen Behauptungen und ohne jede Fachkenntnis, der aber meint echten Fachleuten auch nur ansatzweise das Wasser reichen zu können.

Es mag theoretisch denkbar sein, dass es irgendwann mal vorkommt dass ein Laie eine bahnbrechende Idee hat, auf die hunderte kompetente Fachleute mit jahrzehnterlang aufgebauter Erfahrung und Wissen bisher nicht gekommen sind.
Das mag sein...

So jemanden habe ich bisher aber noch nie erlebt.
Stattdessen bisher genügend Wichtigtuer und Schwätzer, die in pompöser Selbstüberschätzung und ohne jede Selbstreflexion glauben einen grossen Durchbruch entdeckt zu haben.
Und leider meist auch ohne Fähigkeit die eigene Selbstüberhöhung als solche zu erkennen.
 
  • Gefällt mir
Reaktionen: alphatau, Micha-, Otsy und 9 andere
Mal unabhängig vom Inhalt, wirkt die Art und Weise sowie der Umfang der Beiträge, auf mich schon fast manisch. Beunruhigend...
 
  • Gefällt mir
Reaktionen: alphatau, Backfisch, Leon_FR und eine weitere Person
Ich danke all den Input und Feedback. Es hat mir in vielen Bereichen geholfen.
Da ich inzwischen die ersten Laute habe die aufschlagen und vorschläge für eine Firmengründung , patentierung usw vorschlagen bin ich gerade relativ beschäftigt all das zu verdauen und mich in wichtigen kaufmännischen bereichen zu informieren.

Ich werde daher nurnoch seltener hier im Thread rein sehen und bitte um verständniss.

Wenns Neuigkeiten gibt über die entwicklung melde ich mich :)

In dem sinne viel spaß weiter und einen schönen Tag euch allen
 
Vielleicht kann man den Thread hier echt schließen, bevor es noch, von allen Seiten (die Laien-Diagnosen finde ich nicht zielführend), eskaliert. Gegebenfalls kann man ihn ja wieder öffnen, wenn der TE neue Infos hat zB wg. Firma oder Patent. Fände ich persönlich spannend, das zu verfolgen -- aber nicht unbedingt hier auf die Art wie auf Seite 10 nun.
 
  • Gefällt mir
Reaktionen: sedot, dewa und gabbercopter
gabbercopter schrieb:
danke für deinen Beitrag – ich nehme mir kurz die Zeit, deine Punkte sachlich durchzugehen:


1. Validierung durch Gemini
Ich habe Gemini nicht als „Beweisinstanz“ genutzt, sondern als externe Evaluierung eines vollständigen Systemzustands: Architektur, Codebasis, Promptstruktur, Speichermodell, Instanzverhalten. Die Antwort bestätigt nicht einfach meine Meinung, sondern referenziert konkrete Funktionselemente. Die Gemini-Antwort ist damit keine Autoritätsquelle, aber ein technischer Hinweis, dass das System konsistent, funktionsfähig und konzeptionell abweichend von klassischen Prompt-Ketten ist.


2. „Unbelegbare Behauptungen“
Sämtliche Aussagen im Paper sind belegbar – durch die mitgelieferten Systemdateien, Architekturabbildungen, Ablaufdiagramme und den permanent laufenden API-Endpoint. Jeder Call, jeder Speicherprozess und jede Regel ist dokumentiert und live nachvollziehbar. Wer das für „nicht belegt“ hält, übersieht die Dokumentation oder ignoriert den Kontext der Aussagen. Davon ab liegt der Signifikante wert der Architektur nichteinmal in der Frage ob es Bereits als Fertiges laufendes System Existiert sondern bereits im Potenzial dessen was wäre wenn es das als Produkt gäbe.


3. Speicherprozess vs. Prompt-Trigger
Das Konzept, dass die KI Speicherentscheidungen trifft, obwohl der Aufruf im Prompt steckt, ist bewusst so gewählt. Der Prompt ist ein permissiver Mechanismus – die Entscheidung, ob überhaupt gespeichert wird, liegt beim System selbst, gestützt auf inhaltliche Relevanz, Kontextkonsistenz und subjektive Perspektive. Genau das unterscheidet es von rein deterministischen Append-Skripten.


4. Architektur-Neuheit
Ja, natürlich gab es vorher Memory und Datenbankanbindung. Aber:
Das hier ist nicht nur „Memory“.
Das ist:
– autonom gesteuerte Erinnerung
– semantische Selektivität
– identitätsbasiertes Promptverhalten
– intentionaler Reflexionsraum
– plus: Vollintegration in ein Multi-Tenant-Environment ohne externes Prompting oder Scheduler.


Wenn du ein konkretes System kennst, das alle diese Elemente kombiniert – gerne her damit.


5. Vergleich mit älteren LLMs
Das Argument, ein neuer Architekturansatz müsste auf GPT-1 genauso funktionieren, ist methodisch nicht valide. Der Kernpunkt ist ja gerade, dass moderne LLMs ausreichend semantische Tiefe besitzen, um überhaupt selektiv und reflexiv mit Bedeutung umzugehen. GPT-1 kann das schlicht nicht – das widerlegt nicht das Konzept, sondern zeigt nur seine Abhängigkeit von semantischer Kapazität. Genau wie du neuronale Netze nicht mit linearen Funktionen evaluierst.


Zusammenfassung
Du bist selbstverständlich frei, das Konzept kritisch zu sehen. Aber einige deiner Punkte basieren auf Missverständnissen technischer Natur oder setzen Anforderungen an Nachweise, die methodisch nicht haltbar sind.


Wenn du weiter diskutieren willst – sehr gerne, aber dann bitte präzise, auf Systemebene.


— Martin

Das ist eine ChatGPT Antwort.


Die Abhängigkeit von ChatGPT ist nicht wirklich, ohne Vertrag mit OpenAI, eine Businessidee mit Basis.
 
  • Gefällt mir
Reaktionen: TomH22 und alphatau
wenn du das paper gelesen hättest was du obviously nicht hast wüsstest du das die idee modelunabhängig ist und mit jeder API fähigen LLM funktioniert.

Wenn du die kommentare gelesen hättest wüsstest du das ich eine lese rechtschreibschwäche habe

Ich habe daher meine texte in gpt geknallt gesagt : bitte korrigieren formatieren fertig.

dann hieß es " meh ist doch von gpt"

dann sagte ich ok dann schreibe ich selbst aber dann verzeiht mir meinen schreibstil

dann wurde sich mehrfach beschwert ich wäre nicht leserlich

ergo : nutze ich gpt zur hilfe : bäh das doch bot antwort
schreibe ich selbst : bäh das ja eklig kann keiner lesen

GG WP

anyway ich bin dann mal bisschen sachen machen. schönen tag euch - yet again
 
@gabbercopter Ohne Vertrag kann deine API in einem Moment weg sein.

DeepSeek ist Open Source auf Github. Benutz einfach deren LLM, deploy es selber, bau dir die API für die paar Sachen und machs damit und nenn es LoveSeek als AI Companion.

Damit hast du dann ein Business das nicht abhängig von proprietärer Software ist, auch wenn ich es aus ethischen Gründen nicht selber vermarkten würde
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: gabbercopter
Das glaubt ihr doch nicht im Ernst, dass es jetzt wirklich zu Firmengründungen und Patenten kommen wird, oder?
 
  • Gefällt mir
Reaktionen: alphatau, Otsy, Micha- und eine weitere Person
@Andarkan Das glaubt niemand, schon klar, dass das eine Trotz Antwort war, oder er selbst gescammt wird von zwielichtigen Menschen. Da muss er drauf aufpassen. Aber mit Hybris ist alles möglich
 
  • Gefällt mir
Reaktionen: alphatau und fram
Andarkan schrieb:
Das glaubt ihr doch nicht im Ernst, dass es jetzt wirklich zu Firmengründungen und Patenten kommen wird, oder?

Selbstverständlich nicht. Auch diese Sprüche mit Patenten und Firmengründungen habe ich schon mehr als einmal gehört.... Die Leute mit denen ich zu tun hatte, und mit denen ich mich länger als notwendig(*) befasst habe, hatten alle keine Ahnung was ein Patent eigentlich ist, aber das Buzzword "Patent" klingt halt so schön wichtig.

Und zumindest in meinem Fachbereich habe ich dann von all diesen supertollen Patenten oder Firmen nie wieder was gehört. Und ich hätte es, wenn es sie je gegeben hätte

(*) Normalerweise befasse ich mich mit den selbsternannten verkannten Genies nicht länger als "Da ist die Tür".
 
  • Gefällt mir
Reaktionen: Otsy, Arboster und Andarkan
unreached123 schrieb:
Benutz einfach deren LLM, deploy es selber, bau dir die API für die paar Sachen und machs damit und nenn es LoveSeek als AI Companion.
Gibt es doch bereits: character.ai
 
Caryn.ai, spicychat, AISEKAI, Charackter AI Frontends gibt es zu genüge.
 
  • Gefällt mir
Reaktionen: alphatau und CyborgBeta
Ich hab heute Nachmittag entsprechend Zeit aufgewendet und den Thread gelesen, daher sei mir bitte erlaubt, auch meinen Senf dazuzugeben:

Ich verwende LLM für die Textverarbeitung, Coding und etwas Recherche bezüglich MS-Sharepoint-Funktionen. Zugleich verwende ich lokal installierte LLM via OLLAMA und der API Chatbox.ai.

Auf den lokal laufenden Systemen haben die jeweiligen Modelle auch eine Art "Gedächtnis", realisiert durch die oben erwähnte API. Ich verwende aber auch Onlinesysteme wie ChatGPT, MS Copilot oder von Grok. Letztere weißt oft gerne hin auf vergangene Prompts und deren damaligen besprochenen Thematiken.

Als ich Deinen Eingangspost las, bekam mich nach wenigen Absätzen, das Gefühl, dass hier was nicht stimmt: Viele Fachbegriffe, viele Zeilen mit Fachbegriffen, Fehler, viel Luft ("Luftbuderei"), usw., ebenso die - zugegebenen nicht schlecht - generierten KI-Bilder. Anfangs dachte ich, Du hast eine LLM komplett neu geschrieben. Dass Du dann ChatGPT verwendest, wurde mir erst im Verlauf des Threads verständlich.

Auf Nachfragen von den Usern, darunter auch Wissenschaftler, gehst Du wenig ein. Was ist mit der versprochenen PN an den User und seiner Nachfrage? Auch die Tipps zum wissenschaftlichen Arbeiten hast Du ignoriert. Du schriebst selbst, du bist nicht vom Fach. Ich würde das als selbstreflektierenden Mensch mir zu Herzen nehmen. Ich bin kein Akademiker, und auch nicht vom Fach, aber eine gewisse Alarmglocke über Bullshit, der von mir kommt, habe ich dennoch eingebaut.

Ich sehe auch Dein Crowd-Funding nicht als Betrugsversuch an, sondern Du bist einer Bubble, wo Du nach allen Strohalmen greifst (siehe dein Posting "etwas Ruhm wäre nicht schlecht"). Das Du dann am Ende nicht auf Veröffentlichungen (z.B. die erwähnte "My Heart.txt") eingehst, macht es nicht leichter.

Die User die Dich untestützen wollen (siehe Posting mit Patenten usw.), sieh sie Dir gut an. Du könntest auf einen Betrug reinfallen.

Ich denke, das ist nicht böse gemeint, Du bist übermotviert, Du denkst, Du hast den Stein der Weisen gefunden und Deine Idee mitsamt KI-Unterstützung mit viel Blumen im Eingangsposting und in den Kommentaren ausformuliert (Deine Postings zu einem von dir (LRS) und KI-Untestützung nehme ich da mit. Der Dunning-Gruger-Effekt wurde hier schon mehrmal gepostet. Bitte, bitte, versuche aus Dich selbst geistig herauszutreten und dich selbst zu betrachten. Ignoriere nicht die Hilfe von entsprechend Usern hier, die hier akademisch Erfahrung haben.
 
  • Gefällt mir
Reaktionen: JohnTwoHawks, bossbeelze, fram und 3 andere
Status
Für weitere Antworten geschlossen.
Zurück
Oben