Leserartikel Open Source Deep Research Engine: Lutum Veritas v1.2.4

gabbercopter

Commander
🎂Rätsel-Elite ’17
Registriert
Dez. 2014
Beiträge
2.823
Einen Wundervollen Sonntag Morgen in die Gemeinde


Ich Melde mich Heute bei euch weil ich euch gerne mein neuestes Projekt vorstellen möchte : Lutum Veritas Research.

Dabei Handelt es sich um ein Open Source Tauri/python Programm welches es ermöglicht Tiefe Recherchen durch zu führen. Dabei gibt es einen Normalen Modus , sowie einen Akademischen.

Beide Varianten Liefern einen deutlich besser strukturierten und Detaillierteren Bericht als die üblichen Tools am markt von Open ai , Google , Perplexity und co.

Screenshot_41.png


Das Problem :

Wir Leben in einer Schnell Lebenden Gesellschaft in dem der Wert von Wissen und Wahrheit exponentiell mit unseren Technologischen Fortschritt skaliert.
Und insbesondere in Zeiten von KI und Fake Culture gewinnt Autonom Generiertes und faktisch gesichertes wissen immer mehr an Bedeutung.
Gleichzeitig sind wir alle dem stress der " effektivität" und "produktivität" ausgesetzt. Wer hat noch die Zeit eine echte tiefgehende Resersche zu betreiben? Informationen zu suchen und zu Validieren oder fakten zu schaffen? So gut wie keiner.

Und genau deswegen nutzen Menschen Deep Research Engines. Google , Open AI , Perplexity und co bieten schnelle und " einfache" wege tiefere suchen effektiv und schnell durch zu führen.
Aber Werden die dabei den ansprüchen dessen gerecht was wir wirklich brauchen? Ich denke nicht. Und hier sind die gründe :



1) Falsche oder Halluzinierte Citationen Und quellen. Tools wie zb Perplexity werfen mit schön klingenden Ellen langen Quellen Listen um sich - und wenn du sie dann Klicken willst stellst du fest sie existieren zt nicht oder sind inhaltlich inkorrekt

2) Die falsche Sicherheit Hochwertiger suchen und das "kosten Throttling" Alle anbieter werfen hier mit großen versprechen um sich doch im hintergrund werden quellen " gecuttet" oder schlechtere Modelle verwendet. Erst mit wirklich Teuren Abbos erhält man die volle Power.

3) Funktionale Halluzinationen. Insgesondere Open AI Deep Research generiert immeer wieder falsche tatsachen in sofern als das es denkt es könnte bestimmte dinge tun zb dinge generieren und tools nutzen. Das schafft kein vertrauen und verunsichert user.

4) Das gatekeeping der Wahrheit. Auf der einen seite werden also " abbo " zwänge geschaffen und auf der anderen zusätzlich dazu auch noch inhaltliche zensur , oder Zensur bei den quellen geschaffen. Eine echte ergebniss offene suche sieht anders aus.

5) Mangelnde Transparenz der Methodik , Quellen nutung und verarbeitung. Schön und gut das es nach außen toll aussieht aber was wirklich passiert weiss kein Mensch. Yet another Blackbox.



kurz gesagt : Heutige Deep Research tools sind keineswegs perse schlecht. Und füllen eine lücke aber sie sind gleichzeitig weiter weg von dem was menschen sich als reserschetool wünschen.

lutum-demo.gif



Projekt Lutum Veritas Research - Weil Wissen nicht hinter Abbos und Paywalls stecken sollte

Aber dann gibt es ja immer wieder Menschen wie mich die als Solo Entwickler da sitzen und sich denken "Das reicht mir nicht" und einer davon bin ich. Martin. Aus Deutschland. 37 Jahre alt. Stur. Autodidakt. Quereinsteiger in die IT.
Und genau so ging es mir : Ich will jetzt meine eigene Software. Und ich will sie Open source Publishen weil Wahrheit nicht hinter Paywalls stecken darf.


Und mir war von Anfang an klar welche Kerngedanken meine Software vertreten soll :


- Keine Abbos , Keine Paywall - Bring your own Key , pay only usage. Done. Ohne wenn und aber

- Einen Quellen Scraper und such mechanismus der seinen Namen wert ist und mir nicht nur das holt was in KI generierten SEO dossiers steht sondern den SCHMUTZ aus dem internet holt und die ESSENZ. Deswegen Lutum Veritas - Die wahrheit aus dem schmutz holen.

- Keine Zensur. Such was du willst. Und finde Antworten. Ohne Permission oder Compliance regeln

- Open source und so deterministisch wie es geht - Transparenz by Design.

- Aber vor allen : Tiefere , detailliertere Suchen mit Ergebnissen die deutlich über das hinaus gehen was der markt bis dato hergibt.

Die Pipelines :

Screenshot_42.png


Akademisch :

Screenshot_43.png


Die Selbst Kritik

Ich behaupte NICHT das meine Software perfekt ist. Das ist sie nicht. Ich behaupte auch nicht das sie in Jeder Disziplin jedes X beliebige tool weltweit schlägt.

Aber ich behaupte folgendes : Ich habe ein Stand Alone BYOK Open Source Deep Research Tool gebaut das suchen für einen Bruchteil der kosten von regulären Abo oder API Deep Researchers leistet.

Das signifikant tiefere und detailliertere Analysen bietet als jedes andere Tool. Das neben eine regulären Modus einen " Akademischen Deep Research Modus" hat welches Analyse berichte in einer bisher ungekannten tiefe und Evidenz liefert und gerne mal +200.000 Zeichen erreicht. Und ich behaupte das es dadurch , und durch die Art der Kontext Weitergabe die ich implementiert habe deutlich mehr " kausale zusammenhänge erkennt" als die Big Player Tools am markt.

Aber es ist auch klar :

Es wird Bugs geben. Es wird Sachen geben die noch nicht perfekt funktionieren. Aber ich bin dran und entwickle es stetig weiter. Insbesondere wenn man Solo an Programmen Arbeitet ist es unheimlich schwer alle Edge Cases ab zu decken und für jedes Problem im voraus das Passende Error Handling ein zu Bauen.

Es Gilt aber auch : Entwicklung braucht Tester und Feedback. Und hier kommt ihr ins spiel. Ich lade jeden Entwickler , Forscher oder einfach nur interessierten ein : testet die Software. Challenged sie. Challanged mich. Damit ich das bestmögliche daraus machen kann - einerseits um meinen eigenen Anspruch zu genügen , aber auch um der Welt ein Tool zur Verfügung zu stellen das wirklich leistet was es verspricht.

Damit es nochmal sehr Deutlich erwähnt wurde : Es Handelt sich um ein Open Source Projekt mit einer AGPL 3.0 Lizenz. Weder wird an der Software Geld verdient , Noch Befinden sich Ads in ihr oder Referal Systeme. Es ist ein 100%iges Community Projekt das ich der Welt zur Verfügung stelle. Die einzigen Kosten die entstehen sind jene die ihr Pro Research mit euren eigenen API Key Zahlt.

Die Kosten Pro Deep Research liegen mit dem Empfohlenen vor eingestellten Modellen über Openrouter bei 5-10 Cent Pro Research. Solltet ihr Leistungsfähigere Modelle Nutzen Steigen die Kosten entsprechend.

Hier ist das Repo: https://github.com/IamLumae/Project-Lutum-Veritas

Seit dem Launch am Freitag (also in ~48 Stunden) hat das Projekt 16 Stars, 3 Forks, 215 Clones und Traffic von Hacker News, latent.space und deeplearning.ai erreicht – worauf ich sehr stolz bin. Ich freue mich über weitere Tester und Feedback, gerne auch über Stars oder Forks auf GitHub. Lasst mich wissen was gut läuft und was noch verbessert werden muss!

Meine Letzten worte ? Nennt mich gerne Narzisstisch. Das ist mein Antrieb aber ich behaupte :

Die Messlatte für Deep Research Software Liegt ab heute ein kleines Stück Höher.
 
gabbercopter schrieb:
Meine Letzten worte ? Nennt mich gerne Narzisstisch. Das ist mein Antrieb aber ich behaupte :

Die Messlatte für Deep Research Software Liegt ab heute ein kleines Stück Höher.

Oh je er ist wieder da.
Erneut von AI geschrieben Geschichten. Ja Deine Schwäche ist bekannt.

Mal schauen ob mir das Ding mal ansehe und teste.
Icb denke das wird hier erneut lustig werden.

Mut beweist Du ja immerhin nach Deinem ersten Auftritt.
 
Zuletzt bearbeitet: (Geschichten "aus dem Paulaner Garten")
  • Gefällt mir
Reaktionen: ElliotAlderson, Otsy und KenshiHH
@DrDubios Klar ki Geschrieben. die rechtschreibfehler habe ich als pralinen mit rein gelegt. Nix KI. keine munnition diesmal. Alles mein eigener Text. aber nice try

Screenshot_44.png


Nur für dich. Und damit Hoffe ich das Thema ist vom Tisch und wir Konzentrieren uns auf den Inhalt. Danke :)
 
Zuletzt bearbeitet:
Oh nein Fehler oh war noch nicht wach und am Smartphone.

Geschrieben sollte Geschichten sein. Ich editiere es mal!
 
  • Gefällt mir
Reaktionen: gabbercopter
alles gut
DrDubios schrieb:
Oh nein Fehler oh war noch nicht wach und am Smartphone.

Geschrieben sollte Geschichten sein. Ich editiere es mal!
Alles gut kann Passieren :) Ich brauch auch erstmal noch einen Kaffee. Aber diesmal ist es weniger eine AI Geschichte keine sorge. Es ist ein Werkzeug und tool zur Internetsuche.
 
gabbercopter schrieb:
- Keine Zensur. Such was du willst. Und finde Antworten. Ohne Permission oder Compliance regeln
Ohne Compliance Regeln und "Zensur"?
Wie filterst du denn bitte Dinge wie verschwurbeltes Heilpraktikergedöns und FakeNews raus?

Versteh ich das richtig?
Ich lade die Software, brauch meine eigen API Keys und der gleicht die Ergebnisse miteinander ab.
Wenn ich als nur ChatGPT nutze, hab ich welchen Vorteil?
 
gabbercopter schrieb:
Nur für dich. Und damit Hoffe ich das Thema ist vom Tisch und wir Konzentrieren uns auf den Inhalt. Danke :)

Bin ich ganz bei Dir.
Und ohne Dich anzugreifen, AI/KI/LLM ist gerade für Menschen mit Handycaps eine große Hilfe und Erleichterung und Hilfe. Und als kleiner Hinweis für Dich, ich habe mit "gescheiterter" Inklusion und behinderten Menschen sehr viel zu tun und erlebt und erlebe es heute noch!

Um es zu "entschärfen":
Deine Schwäche ist bekannt, Lese/Rechtschreibungsthematik!
Genau da ist KI/AI/LLM bereits fuer dieses Problem ein große Hilfe! Das Menschen mit der Problematik eben die Tools haben, um "kleine Helferchen" zu haben, die den Frust damit bewältigen.
 
Azghul0815 schrieb:
Ohne Compliance Regeln und "Zensur"?
Wie filterst du denn bitte Dinge wie verschwurbeltes Heilpraktikergedöns und FakeNews raus?

Versteh ich das richtig?
Ich lade die Software, brauch meine eigen API Keys und der gleicht die Ergebnisse miteinander ab.
Wenn ich als nur ChatGPT nutze, hab ich welchen Vorteil?
Moin

gerne Beantworte ich deine Fragen

Wie filterst du denn bitte Dinge wie verschwurbeltes Heilpraktikergedöns und FakeNews raus?

Garnicht. Das tun andere Deep Research tools auch nicht. Was ich stattdessen getan habe ist es mechaniken ein zu bauen die

  • die Ki zwingen quellen zu validieren --> wie oft kommt sie vor
  • die art der Quelle zu bewerten --> sind das angesehende news seiten oder community/foren
  • gegensätzliche meinungen und quellen zu bennen und auf zu wiegen

bedeutet am ende wird in einen Bericht sofern sowas vorhanden wäre auftauchen --> es gibt gegensätzliche Meinungen aber Meinung X überwiegt.

Zensur Bezieht sich hier primär auf 2 Dinge : 1) Die Big Player durchsuchen in der regel nur die top ergebnisse und vorgekautes Zeug , Mein Scraper und die Such Algorythmen durchsuchen einen Mix.

Außerdem geht es hier um inhalt : ich mein wenn du bei google zu kontroversen themen suchst wirst du sehr oft ein " Dabei kann ich dir nicht Helfen" erhalten. Das wird hier deutlich seltener oder nur bei offenkundig Illegalen inhalten auftreten.

Ich lade die Software, brauch meine eigen API Keys und der gleicht die Ergebnisse miteinander ab.
Wenn ich als nur ChatGPT nutze, hab ich welchen Vorteil?


1) du musst kein Abo Kaufen. Es mag nutzer geben die nicht Daily KI brauchen.

2) Du hast Freie Model und Anbieter Wahl

3) die Berichte sind Deutlich Detallierter und Tiefer

4) Es werden deutlich Mehr quellen genutzt und Referenziert

5) es gibt keine Inhaltliche Zensur

6) Deine daten landen nicht bei einen Big player da du Zero Data Retention Endpoints nutzen kannst
Ergänzung ()

DrDubios schrieb:
Bin ich ganz bei Dir.
Und ohne Dich anzugreifen, AI/KI/LLM ist gerade für Menschen mit Handycaps eine große Hilfe und Erleichterung und Hilfe. Und als kleiner Hinweis für Dich, ich habe mit "gescheiterter" Inklusion und behinderten Menschen sehr viel zu tun und erlebt und erlebe es heute noch!

Um es zu "entschärfen":
Deine Schwäche ist bekannt, Lese/Rechtschreibungsthematik!
Genau da ist KI/AI/LLM bereits fuer dieses Problem ein große Hilfe! Das Menschen mit der Problematik eben die Tools haben, um "kleine Helferchen" zu haben, die den Frust damit bewältigen.
Danke. Wirklich. Für die netten worte. Im gegenzug versuche ich alte fehler nicht zu wiederholen und habe diesesmal weniger geschrieben , es selbst geschrieben und es ist kein " whitepaper" und ideen sondern ein open source projekt mit repo und daher testbar :)
 
Was ist aus deinem letzten Projekt geworden? Ein kleines Update wäre sicher zielführend, um Credibility herzustellen.
 
  • Gefällt mir
Reaktionen: rezzler und Backfisch
@Otsy Ist online das Produkt. werde hier aber keinen Link posten dann heißt es werbung auch wenns ein Free tier hat. Aber das sollte auf google recht fix zu finden sein :)
 
@ElliotAlderson 1) Ich behaupte keinwegs eine " bessere Ki zu haben" ich bitte dich hier zur Strikten Differenzierung zwischen einer funktion die eine KI nutzt , und einer ki selbst

2) Was ich claime ist im eingangstext Eindeutig beschrieben.

3) ob diese Claims den tatsachen entsprechen kann Jeder selbst testen und beurteilen. von den inzwischen knapp 250 Personen die sich das Programm Geholt haben gibt es zumindest noch keinen Git Issou der etwas gegenteiliges sagt
 
ElliotAlderson schrieb:
Doch behauptest du. Deine KI soll bessere Ergebnisse liefern als die Konkurrenz. So steht es in deinem Text.
Ich Zeig dir gerne dein Missverständniss auf :


Erstens " Deine KI"


Ich habe keine KI. Ich habe keine KI gebaut. Ich habe keine KI trainiert. Lutum Veritas nutzt existierende LLMs über OpenRouter oder andere provider- also die Modelle von OpenAI, Anthropic, Google etc. Das steht auch so im Text und im Repo.

Dein Argument ist daher etwas am Thema vorbei.

Zweitens : Was ich Claime


Ich schrieb wörtlich:


"Ich behaupte NICHT das meine Software perfekt ist. Das ist sie nicht. Ich behaupte auch nicht das sie in Jeder Disziplin jedes X beliebige tool weltweit schlägt."

Was ich claime ist: tiefere und detailliertere Berichte, mehr Quellen, keine Zensur, volle Transparenz, Bruchteil der Kosten. Das sind Eigenschaften meiner Pipeline - nicht eines Modells.


Du darfst das gerne anders sehen. Aber bitte auf Basis dessen was ich geschrieben habe, nicht auf Basis dessen was du glaubst gelesen zu haben.
 
gabbercopter schrieb:
Und ich will sie Open source Publishen weil Wahrheit nicht hinter Paywalls stecken darf.
Ich würde den Begriff der "Wahrheit" vorsichtiger verwenden, gerade im akademischen Bereich. Wissenschaft generiert keine Wahrheit, sondern empirisch fundierte Modelle.

gabbercopter schrieb:
durch die Art der Kontext Weitergabe die ich implementiert habe deutlich mehr " kausale zusammenhänge erkennt" als die Big Player Tools am markt.
Ein LLM kann keine kausalen Zusammenhänge erkennen, sondern arbeitet rein assoziativ. Mit welchem Trick möchtest Du dies erreicht haben?

gabbercopter schrieb:
die rechtschreibfehler habe ich als pralinen mit rein gelegt.
Was spricht gegen die Nutzung einer klassischen Rechtschreibprüfung?
 
  • Gefällt mir
Reaktionen: Otsy
Ich kann nachvollziehen das nicht jeder die Lust hat sich jetzt ein Programm zu Installieren , sich einen API key zu holen usw.

Ich biete daher Folgendes an :

Gebt mir eine Schwere Deep Research Query.

Ich werde dann exakt diese Query nehmen und bei :

  • Open ai Deep Research
  • Google Gemini Deep Research
  • Perplexity Deep Research
  • Veritas Research

Durchlaufen lassen. Anschließend speichere ich alle durchgänge , Lade sie in eine Web Ressource und ihr könnt drüber sehen.

Das ist das Tolle meine Herren :

a) meine software ist online. Es gibt Keinerlei Grund hier Sinnlos darüber zu Diskutieren da jeder von euch es schlichtweg selbst testen kann. Die Software ist Online. Sie ist Open source --> Gesammter Code sichtbar. Sie ist Virus Total Geprüft und Hashed. Und sie kostet nichts außer deine direkte nutzung über deinen Eigenen key

b) Jeder von euch ist dazu in der lage selbstständig zu prüfen ob das tool leistet was ich verspreche das es das tut.
 
Hat es denn seit dem 15.06.2025 eine Entwicklung in irgendeiner Form gegeben, was dein letztes Projekt anbelangt?

Wenn ich mir deine Website so ansehe schrillen alle Alarmglocken. Ergo: Es beschleicht mich ein ähnliches Gefühl wie bereits in deinem Thread aus dem letzten Jahr.
 
Ich zitiere einmal aus seinem (vibe-geschriebenen) Paper für Investoren, die TLRAG aufkaufen möchten:

A realistic scenario could be that TLRAG achieves a valuation of, for example, \$300-500 million in a Series A (after successful pilot customers and open-source community buzz)—higher than LangChain due to the larger addressable market and technological moat, but still below the very large consumer AI platforms. If TLRAG then proves itself in the market as a first mover with rapid user growth, the sprint into the unicorn league would also be possible, analogous to Character.AI's development

Gesunder Optimismus :D Die ganze Story gibt's hier:

https://dev.to/tlrag/langchain-vs-tlrag-a-comparative-analysis-for-investors-56aj
 
Otsy schrieb:
Hat es denn seit dem 15.06.2025 eine Entwicklung in irgendeiner Form gegeben, was dein letztes Projekt anbelangt?

Wenn ich mir deine Website so ansehe schrillen alle Alarmglocken. Ergo: Es beschleicht mich ein ähnliches Gefühl wie bereits in deinem Thread aus dem letzten Jahr.
klar gerne :)


Timeline seit Juni 2025:


  • August 2025: NoChain Orchestrator Whitepaper (die technische Weiterentwicklung von TLRAG)
  • Oktober 2025: Beta Launch auf dev.thelastrag.de mit Invite-System
  • Seitdem: Laufende Nutzung, stabile Infrastruktur

Das System läuft. Es funktioniert. Und ja es hat aktive nutzer.


Zu den Alarmglocken:


Was genau meinst du damit? Die Website? Das Design? Der Inhalt? Ich frag nicht um zu streiten - ich frag weil ich verstehen will was dich stört. Dann kann ich konkret darauf eingehen.


Ich versteh dass der Thread von Mai 2025 Spuren hinterlassen hat. Damals hatte ich ein Whitepaper und Versprechen. Diesmal hab ich ein funktionierendes Repo mit 250+ Downloads und keinem einzigen Issue der meinen Claims widerspricht.


Wenn du konkrete Zweifel hast - bring sie. Ich beantworte sie gerne.
Ergänzung ()

Backfisch schrieb:
Ich zitiere einmal aus seinem (vibe-geschriebenen) Paper für Investoren, die TLRAG aufkaufen möchten:

A realistic scenario could be that TLRAG achieves a valuation of, for example, \$300-500 million in a Series A (after successful pilot customers and open-source community buzz)—higher than LangChain due to the larger addressable market and technological moat, but still below the very large consumer AI platforms. If TLRAG then proves itself in the market as a first mover with rapid user growth, the sprint into the unicorn league would also be possible, analogous to Character.AI's development

Gesunder Optimismus :D Die ganze Story gibt's hier:

https://dev.to/tlrag/langchain-vs-tlrag-a-comparative-analysis-for-investors-56aj
@Backfisch


Das Paper ist von Juni 2025. Das war ein Investor-Pitch für TLRAG - ein anderes Projekt.


Hier geht es um Lutum Veritas. Ein Open Source Deep Research Tool. Kein Investor-Pitch. Kein Funding. AGPL-3.0. Kostenlos.


Wenn du inhaltliche Kritik an Lutum hast - gerne. Wenn du alte Papers ausgraben willst um mich als Person zu diskreditieren statt über das aktuelle Projekt zu reden - dein Ding. Aber dann sag das auch so.
 
Zuletzt bearbeitet:
gabbercopter schrieb:
Aber ich behaupte folgendes : Ich habe ein Stand Alone BYOK Open Source Deep Research Tool gebaut das suchen für einen Bruchteil der kosten von regulären Abo oder API Deep Researchers leistet.
und ich behaupte, das Tool hat fuer dich ein KI Tool gebaut, nennen wir "ihn" mal hm "Claude"? - was nun? Du bist und warst kein Entwickler (laut eigenen Angaben). Ganze "Projekt" zusammenbauenlassen in 3 Tagen

gabbercopter schrieb:
Was ich claime ist: tiefere und detailliertere Berichte, mehr Quellen, keine Zensur, volle Transparenz, Bruchteil der Kosten. Das sind Eigenschaften meiner Pipeline - nicht eines Modells.
Das allein kannst du schon nicht gewaehrleisten wenn du einfach nur externe LLMs ueber Provider wie OpenRouter nimmst


Ansonsten, Code kurz ueberflogen - machst nix neues/anderes, Agent mit Planning, Search Tool, Context Engineering, Compression und self-assessment.

Warum du dann nicht auf ein Agentic Framework aufsetzt waere noch interessant. Weder LangGraph noch Pydantic AI. Beide waeren eigentlich ganz passend, aber wolltest du wohl nicht, vermutlich willst du dich gegen andere Software Stacks aufstellen und vergleichen?

Achja, Python libs wie search-engines-scraper-tasos ohne Search Engine Keys koennte langfristig kommerziell schwierig werden fuer dich mit den bis zu 10 hard-gecodeten Google Request pro research - aber weisst du ja sicher selbst.

-----------------------------------------------------------------------------------

Off-Topic:

Und jetzt nochmal auf TLRAG zurueckzukommen - was wurde daraus? Ich hab auf keiner ML und KI Konferenz davon je was gehoert, niemand hat in irgendwelchen News davon berichtet (deine zahlreichen eigenen Posts auf ueblichen Plattformen werte ich nicht, es kam da auch nie Feedback von anderen). Was wurde aus deinem Projekt? Nix, wo ist die 300 Millionen Dollar Bewertung hin? ODer gab es doch Geldgeber?

-----------------------------------------------------------------------------------

Trotzdem, viel Erfolg bei deinen Projekten - ich werde mal weitersehen wie TLRAG und Veritas sich am Markt so schlagen.
 
  • Gefällt mir
Reaktionen: Otsy
Zurück
Oben