Kann Opus/Sonnet seinen eigenen Chatverlauf nicht lesen/ sehen? (Perplexity)

JoHaJo

Cadet 2nd Year
Registriert
Juli 2025
Beiträge
24
Für mich ist es normal, in einem Chatverlauf die vergangenen Chats zu lesen. Opus/ Sonnet scheint das nicht zu können. Wie geht man damit um?

Konkret schreibt mir die KI: „Ich kann nicht so scrollen, wie du es als Mensch kannst.“ Okay.
Aber jetzt habe ich ein Problem:
  1. Gestern habe ich etwa ein bis zwei Stunden damit verbracht, eine komplexe Code-Architektur und ein Design mit Opus zu erstellen. Mit guten Ergebnissen.
  2. Da es schon spät in der Nacht war, habe ich beschlossen, dort aufzuhören und am nächsten Tag weiterzumachen. Ich schrieb den Prompt/ die Frage: Können wir hier stoppen und morgen weitermachen? Antwort: ja, das geht.
  3. Heute erwarte ich, mit meiner Architektur und meinem Design fortfahren zu können. Ich bin im selben Projekt, im selben Chat. Ich kann nach oben scrollen.
  4. Aber Perplexity kann das nicht! Oder irre ich mich?
  5. Beweis: a) Ich habe darum gebeten, dort weiterzumachen, wo wir gestern aufgehört haben, und ich erhielt eine ausführliche Antwort allerdings mit all den alten Methoden, dem alten Design, alten Dateinamen, alten Referenzen auf alte Dateien und Begriffen, von denen keiner auf dem neuesten Stand ist. b) Ich habe gefragt, was passiert ist, und im Ernst: Die KI hat versucht, sich zu verstecken, wollte keine klare Antwort geben. Also habe ich sie in die Enge getrieben (verrückt). Dann erschien die Meldung: „Der Chat wird zu lang“ (hahaha lol). Es bleibt: Opus kann nichts von vorher sehen.
Das habe ich gelernt und hätte ich schon früher wissen sollen: Halte niemals mitten in einem Chat an, ohne die Ergebnisse in eine Datei zu exportieren oder ohne das zu beenden, was du begonnen hast.

Darf ich um Meinungen aus der Community bitten? Vielleicht habe ich eine wichtige Eingabeaufforderung, einen Workaround oder eine Funktion einfach übersehen? Das wäre der leichteste Weg für mich ;) Ansonsten habe ich jetzt echt ein Problelm, wie ich weiter machen soll? Prompt: "Sammle den gesamten Chatverlauf und schreibe ihn in eine *.txt" -> Importieren -> Neuer Chat -> "Lese diese Datei und arbeite ab dort weiter."

Danke und viele Grüße und viel Erfolg bei der Arbeit mit KI!

Jo
Ergänzung ()

👉 Ich teile diesen Prompt, damit konnte ich weiterarbeiten. Für die Personen, die wie ich nicht weiter wussten.

"Lies bitte den bisherigen Chatverlauf vollständig mit Fokus auf Architekturentscheidungen, offene Punkte und verworfene Ansätze, Design. Beziehe dich ausdrücklich auf frühere Entscheidungen und widersprich ihnen nicht stillschweigend. Erstelle zuerst eine kompakte Rekonstruktion des bisherigen Stands, dann erst die Lösung/ weiteres Abarbeiten der Schritte. Nenne mir vor deiner Antwort die 10 wichtigsten Festlegungen aus dem bisherigen Chat. Falls dir Kontext fehlt oder alte Teile nicht mehr sicher im Verlauf sind, sage das explizit. Bevor du antwortest, rekonstruiere aus dem bisherigen Verlauf: Ziel, Architektur, bereits getroffene Entscheidungen, No-Gos, offene Konflikte. Arbeite erst danach an der eigentlichen Frage."

-> Wirklich sehr sehr lange Zusammenfassung kopieren
-> Neuen Chat starten.
 
Zuletzt bearbeitet:
Nein, Perplexity kann das nicht und das ist gewollt. Die Modelle laufen alle auf einem minimierten Kontext-Window, je mehr Context aus Erinnerungen da rein kommt desto überladener ("context polution/poisoning") wird es. -> Das KI Modell tut sich schwer für dich wichtige Informationen von dem Wirr-Warr zu unterscheiden.

KI Modelle lieben Markdown Files. Claude Code oder ähnliche lokale Tools legen entsprechende Claude.md oder Memory Files teils selbstständig an und laden diese nach. Im Browser gibt es die Funktionalität schlichtweg nicht weil dir Perplexity kein Dateisystem zur Verfügung stellt. Du solltest Perplexity also am Ende bitten einen Markdown zu generieren um es später in einem neuen Chat zur Verfeinerung weiter zu verwenden zu können.

Kurz gesagt, je länger der Chat wird desto schlechter wird die Qualität des Outputs. Das Problem ist nicht das die KI Informationen "versteckt" sondern das Kontext Fenster überläuft, Perplexity die Abstrakten Daten in Browser Sitzungen nicht vorrätig hält, der Context komprimiert wird und für dich wichtige Informationen verloren gehen. Gewöhne dir gleich von Anfang an das arbeiten mit Markdown an, die sind für jedes Git Projekt Standard und generell Best Practice für Codebezogene Projekte. -> LLMs brauchen dieses "grounding" um dir gute Qualität zu liefern, du hast gleich eine Doku und die Qualität bleibt auch bei größeren Anforderungen gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22, derMutant und JoHaJo
Brauche doch die richtigen Werkzeuge, für sowas gibt es Claude Code.
 
Vielen Dank @steirerblut für das Teilen Deines Wissens! Hast mir damit geholfen 👍

@AAS deswegen: Lesen außerhalb des Working Directory ist laut Anthropic grundsätzlich möglich. Das ist der entscheidende Punkt: sauberer Schreib-Schutz ja, kompletter Lese-Ausschluss nein.
Anders von mir formuliert: Ja, ich würde es gerne nutzen! Nein, so lang ich den Verdacht haben muss, dass ein LLM einer US-Firma auf meiner SSD arbeitet, gefällt mir das nicht, da ich skeptisch bin. Mir geht's hier nicht um US-Bashing. Ich versuche mit neuen Technologien neugierg aber defensiv um zu gehen.
 
Ich schreibe nach jedem Run eine MD (memory). So kann er kann es in neuer Sitzung lesen und wir können weiter machen.
 
  • Gefällt mir
Reaktionen: JoHaJo, AAS und steirerblut
Deswegen Markdown files, die kannst gezielt zur Verfügung stellen (einfach im Chat Anhängen), die Modelle wurden über Milliarden Iterationen über Github Projekte trainiert die effizient lesen und schreiben zu können und du brauchst keine generellen Freigaben auf Dateisystem Basis.

Das von AAS angesprochene Claude Code erkennt bestimmte ".mds" automatisch oder liest sie auf Zuruf. Kann dann halt auch über Standard Console befehle Code Files lesen/schreiben zB aus so einer Vorgabe umsetzen.

Wie damit gearbeitet wird hat sich aber in den letzten Monaten stark verändert:
  • Früher "Prompt engineering" -> also mit möglichst effizienten Chatkommandos so viel wie möglich in einem begrenzten Contextwindow "one shotten" uns aufs beste hoffen.
  • Heute "Agentic coding" -> wie in der klassischen Programmierung Aufgaben aus der Dokumentation in möglichst kleine Blöcke runter brechen -> Jeder Agent bekommt seine eigene Mini Aufgabe, muss nicht das komplette Projekt kennen. Agent Frameworks können das generieren / spawnen von Agent Tasks automatisieren und überwachen. Sich wiederholende Aufgaben werden an fix Dokumentierte Abläufe die wieder in MDs dokumentiert sind übergeben -> "Skills"
Context kostet den Betreiber und dich Geld. Je geringer der Context desto effizienter arbeitet das Modell weil weniger Hintergrundgeräusche da sind. Mittlerweile spricht man von "Dark Factories" -> kein Licht mehr an -> Nur noch die Dokumentation vom Menschen -> Entwicklung, Testen, Deployment etc durch Coding agents. Es gibt auch erste Firmen die voll darauf setzen (Stripe fällt mir zB ein)
-> Unser Glück als Programmierer ist das KI sehr schlecht darin ist komplette Projekte am Leben zu halten. Bugs, alter Code, Dokumentationslücken brauchen komplettes Verständnis -> Context ist teuer -> KI arbeitet immer Zielorientiert -> neigt dazu Informationslücken mit "haluzinierten Werten" zu füllen und macht Fehler.
 
  • Gefällt mir
Reaktionen: derMutant und JoHaJo
Spannend die Entwicklung. Ich lese mich aus Neugierde in Dark Factories ein.

Ich bin Künstler, der für sein Projekt aber programmieren muss (bzw. ich darf das Projekt jetzt machen, da es KI gibt und ich meine Vorstellungen damit halbwegs gut umsetzen kann.). Meine Arbeitsweise kann ich in "Dark Factories" Begriff nicht einordnen so genau. Ich arbeite mit Unity und brauche dafür C#. Ich generiere mit Claude im Browser (Safari) und habe ChatGPT auf Firefox (wegen RAM). KI-1 nimmt meine Fragen, Wünsche entgegen, diskutiert mit mir, generiert, ich copy&paste für KI-2 und challenge und lasse dessen Zusammenfassung mit Ansage an KI-1 geben. So arbeite ich hier.
Von dir/ euch hier die kluge Ansage, wenn Chats voll werden, eine *.md zu generieren. Das habe ich jetzt eben gemacht und funktioniert super.
Am Ende jeden Tages lasse ich ein Script über meinen C#-Ordner für Unity laufen und alle Scripte in 3 Markdowns schreiben. Hier nervt es mich, dass ich täglich diese 3 Dateien in die jweiligen Spaces von Perplexity bzw. ChatGPT manuell hochladen und die alten Versionen löschen muss.

Ich wüsste auch gar nicht, wie ich anders überhaupt das Projekt machen dürfte.
 
Das klassische Setup ist dann halt mit offenen VSCode/Cursor den Coding Agent (Copilot, Cursor, Claude Code, Bezi usw) direkt über ein Plugin im Projektordner auszuführen. Kein Copy+Paste zwischen Browsern, kein Source Code in Markdowns; nur die Projektdoku und Architektur in MDs in natürlicher Sprache, der Agent ließt den Code direkt zur Laufzeit aus dem Projekt. Setzt dann halt voraus das du dem Betreiber vertraust und deren Abo Model nutzt. Verwerten tun die aber alle die Prompts, nicht Projektspezifisch sondern halt über X Millionen Datensätze "Zielgruppe A Webentwickler interessiert sich besonders für Node.js hat aber immer wieder Probleme mit den Requirements" usw.
 
  • Gefällt mir
Reaktionen: TomH22
@steirerblut "Unser Glück als Programmierer ist das KI sehr schlecht darin ist komplette Projekte am Leben zu halten. Bugs, alter Code, Dokumentationslücken brauchen komplettes Verständnis -> Context ist teuer -> KI arbeitet immer Zielorientiert -> neigt dazu Informationslücken mit "haluzinierten Werten" zu füllen und macht Fehler." <--- nun ja, wenn man das im Live Betrieb macht selber Schuld. Ein 1zu1 Klon auf einer nicht produktiven Umgebung verhindert sowas :) Ebenso sollte man Backups machen. Das kann man auch die AI machen lassen, man muss es ihr nur sagen. Ich habe schon massiv alte Software die vom Hersteller nie weiterentwickelt wurde, auf neuste Standards gebracht, am Ende verarbeitet sie bloss die gleichen Daten, nur auf neusten Code und UI/UX. Ebenso mit alten Entwickelten PHP/SQL Systemen. Wenn man fertig ist und alles läuft, kann man immer noch den neuen Datenstamm importieren ^^

Gerade mit Claude Max und parallelen Agents knüppeln die alles durch innerhalb kürzester Zeit.
 
@chr1zZo Ich sag ja nicht das es unmöglich ist, der Großteil der KI Projekte scheitert ja meist schon an der Datenbasis und schlechter Dokumentation.
Das Internet ist halt mittlerweile voller Videos wo OpenClaw angeblich schon Ticketsystem und Issuetracker abgreift und automatische Fixes implementieren lassen.
Wir haben selbst noch so ein 25 Jahre altes C++ Projekt mit ein paar hundertausend Codezeilen in der Firma. Claude Code darauf los zu lassen wär bestimmt mal lustig, vor allem weil glaub ich niemand ausser dem Seniorchef das Gesamtkunstwerk versteht. Gottseidank aber nur mehr Maintenance :D
 
@steirerblut OpenClaw Lokal installiert bedarf halt auch einer Menge Leistung. Alles schon durchgetestet, auch extra ne Mac Maschine angeschafft :) Bei unseren Strompreisen aber nicht ganz so Tasty ^^ Für Simple Tasks ja, kein Problem. Willst du aber wirklich das Hirnschmalz auch umgesetzt wird, kannst lustig werden. Für Simple Agents aber sehr praktisch, aber da Bezahle ich lieber die paar Euro pro Tag an Token Agents bei Claude :)
 
danke für Eure Antworten!
  • ChatGPT Pro: wie Tomaten von den Augen, als ich Visual Studio Code mit ChatGPT.App verbunden habe. dieses lästige copy&paste.
    • leider ist das krass buggy: verliert die connection, erstellt 3 scripte in folge und baut sie in ein bestehendes script ein.
    • Geschwindigkeit liegt um welten unter Perplexity
    • über qualität von code kann ich nichts sagen. Fakt ist: ich komm seit letztem Mittwoch nicht weiter, drehe mich im kreis. ich arbeite mit Unity und das Unity system hat seine eigenen harten Regeln die ich als Künstler nicht begreife (zeitliche abfolgen wann wird was aktiviert wann weiß etwas von etwas anderem)
    • glücklich bin ich nicht
  • Perplexity
    • ist rasend schnell
    • die Anbindung an Visual Studio Code gibt es scheinbar nicht offiziell und von einem gewissen "hutu" anbieter gibt es nur 4 Bewertungen.
    • andererseits habe ich vorhin hier ComputerBase auch gelesen, was die ChatGPT.App an Daten von mir abzweigt, in meiner Situation kanns mir eigentlich egal sein /Henkerhumor
    • weigert sich, die Markdowns zu lesen (alle Scripte aufgeteilt in 3 Kategorien)
    • verlangt im selben Chat nacheinander ständig dieselben Scripte wieder und wieder = Verarbeitungsbug
    • etc.
  • Claude Opus
    • wäre jetzt mein 3. Abo und einige Recherche hyped dass jetzt nicht (mehr) so.
    • damals im Januar ich mit Opus auch nach 30min ins Limit gerannt, man hat niemanden als Ansprechpartner, uncool
  • CoPilot
    • war die schlimmste und frechste Plattform/ Abo
    • Codequalität war unterirdisch schlecht, haufenweise Bugs, Fehler, hat nicht funktioniert
    • "Ein Probe-Monat kostenlos" -> mir wurden 10€ abgebucht.
    • jetzt finde wen, dich zu beschweren.
  • Fiverr
    • ist jetzt echt mein Strohhalm, jemandem in Pakistan mit Verständnis für Unity (= GamesUmgebung) das Script mit 300 Zeilen zu schicken und er baut mir aus dem fast funktionierenden Play/Pause-Overlay mit Audio-Timeline samt Playhead darauf, ein funktionierendes Script, dass trotz deaktiviertem Overlay (soll Nutzer nicht stören) trotzdem Playhead und Zeit mit aktualisiert.
      • wegen so simplen Dingen könnte ich mich aus Frust mit Tequila wegschießen jetzt. /traurig
  • Letzte Frage
    • Lokale App-Lösungen Richtung OpenClaw, oder Codex etc. - Was bringen die in meinem Fall noch?
    • Welche Umgebung erlaubt es mir Stand März2026 meine Scripte in einen Topf zuwerfen und gemeinsam analysieren und modifizeren zu lassen? Mit Prompt-Eingabe zum Feinjustieren
    • Ich nutze ja sogar schon geschliffene Prompts: Perplexity erkläre ich detailliert das Problem und lasse mir Prompt für ChatGPT ausgeben damit dort der Code erstellt wird, der widerum von Perplexity gegengelesen wird.
Ergänzung ()

chr1zZo schrieb:
Gerade mit Claude Max und parallelen Agents knüppeln die alles durch innerhalb kürzester Zeit.
Wie genau schaut das aus? Es ist ja ein Unterschied, wenn der "Stamm" und die "Äste" bereits sauber funktioniert haben, als Basis. Das umschreiben auf neue Plattformen (oder so ähnlich).
Aber hilft das, wenn man den Stamm und die Äste gerade baut?
Ich frage ja gerade, weil es Unmengen an Hype-Videos gibt. Mir fällt es sehr schwer, das wichtige "zum konkreten Arbeiten für meinen Fall" vom Unkonkreten "schaut her was die neue Technik kann" (was ja völlig okay ist!) zu trennen. /traurig/hilflos/hoffnungslos
 
@JoHaJo ich habe auch erst mit ChatGPT angefangen sowie Codex und war gar nicht begeistert. Danach auf Claude umgestiegen, erst Pro Plan und dann in die Max Abos rein weil ich halt die Pro Limits immer wieder erreicht habe. Das kommt halt auf dein Code an. Wenn die AI erst mal eine bestehende Software Analysieren soll, so musst du ihr das auch mitteilen. Am besten ist es wirklich ihr noch zu sagen "Denke bitte an dies und das" falls er nach der Analyse nicht gewünschte Punkte ausspucken sollte. Ich gebe dir ein Beispiel. Sagen wir, ich habe 5 verschiedene Python Programme. 4 davon habe entsprechen meiner eigenen Logik und sind recht gut in dem was sie tun. Dann habe ich Claude gesagt, wie würdest du es denn machen? :D Das Programm war fürn *rsch :D Also es muss schon etwas Schmalz mit rein. Wenn du den Core erst noch bauen willst und dazu die Äste, wäre es eine Option das ganze zuverbildlichen, also Flussdiagramm, Strukturdiagramm usw. Die Bilder kannste du auch der AI zur Verfügung stellen um deine Logik zu präsentieren, dann baut er auch schon so.

Wenn du Unity nutzt, lässt sich das bestimmt Koppeln. Ich habe es schon mit Roblox Studio verknüpft, das geht über eine extra Software, weil Roblox das auch noch nicht vollwertig deployed hat.
 
Ah wow, Max, hm... was ich beobachte: PingPong zwischen 2 KI's macht den Code sehr schön strukturiert. Eine KI ist überfordert, 2 helfen sich. Aber dieser Workflow steht und fällt mit mir: wenn ich nicht dabei bin und copy/paste (und dann noch ins Script einfüge und compiliere), dann passiert da nicht viel automatisch. Das kostet extrem viel Zeit und wäre ja voll automatisch möglich. Ich weiß nur nicht wie:
  • Unity -> setzt auf Visual Code. Visual Code -> offiziell derzeit nur mit Claude oder ChatGPT.app.
Meine Prompts sind mittlerweile relativ gut. Auch fange ich gerade an, alle Scripte über 500 Zeilen in 2 Scripte (Core, Playback) aufzusplitten. Die Wahrscheinlichkeit, das VisualCode&ChatGpt automatisch Zeilen finden und ersetzen, ist dann höher. Aber diese Kinderkrankheiten bleiben, ChatGPT.app wollte gestern ab ca. 19:00h einfach VisualStudio nicht mehr "sehen", heißt: der Tab zu VS war im Chat, aber immer mit "unbekannt" anstatt der Name des geöffneten Scripts. Keine Chance, weder Neustart noch Neuanmeldung. Das ist halt dann witzlos, wenn du bis 22:00h noch versuchst, den einen Bugfix wenigstens hinzukriegen. /enttäuschend

Ich habe jetzt jemanden weit weit weg kontaktiert, der mir nur ganz kleiner Bugfixes anschauen und bearbeiten soll. Da er nur KI-Code sieht, sind mir "Rechte" ja völlig wurscht. Und wenn dieser Mensch (und ja, das tut er ;) von diesem über Wochen produzierten KI-Mensch-KI-Code profitiert oder lernt, ich im Gegenzug aber meinen Bug gefixt kriege und endlich weiter machen kann, ist das eine schöne Win:Win-Situation. Ich hab einfach schon zu viel wertvolle Lebenszeit verloren.

Ich wüsste halt zu gerne, wie das richtige Programmierer und Entwickler (Vibe-Coding) machen? Max-Abo und OpenClaw? Wenn ich das mehr verstehen könnte, würde ich eine Zwischenlösung sichelrich für mich finden. Meine Aufgaben sind ja eher künstlerischer Natur, MusikGrafikText. Immer ein Albtraum, für 3-4 Wochen in der Coding-Hölle zu verschwinden, weil ich aus künstlerischer Sicht genau weiß, dass ich dieses und jenes Feature aber brauche. (Und mir hier vom Budget einfach keinen Menschen leisten kann, leider/ traurigerweise).

PS: Ich korrigiere mich: es ist keine "Hölle". Die letzten Wochen schon, weil ich bei 12h/Tag nicht weiter komme und das frustierend und ängstigend ist. Aber Coding generell und die Welten, die sich damit öffnen, finde ich faszinierend und fantastisch!
 
JoHaJo schrieb:
Ich wüsste halt zu gerne, wie das richtige Programmierer und Entwickler (Vibe-Coding) machen?
Richtige Entwickler machen abseits von "Mockups" kein Vibecoding, weil sie wissen, dass das langfristig zu Problemen führt.
Und richtige Entwickler können auch mit den für sie gebauten Werkzeugen (wie OpenCode, Claude Code, GitHub Copilot) gut arbeiten, weil sie wissen was diese Werkzeuge können, wie sie zu bedienen sind und dass sie sehr nützlich sein können. Zumindest diejenigen, die sich damit beschäftigen, gibt natürlich auch die Verweigerer.
 
Also, ich habe meiner KI beigebracht, dass sie in regelmäßigen Abständen den Chat sichert, und ich ohne Probleme einen neuen Chat öffnen kann, auf den Chat verweise. Die KI analysiert den Chat und weist dann genau, wo es weitergeht.
 
Ich habe eine *.md "Gedächtnis" hinterlegt. Wenn der Chat langsam wird, buggy, komprimiert werden muss, gebe ich den Prompt: Führe Gedächtnis aus. Die Zusammenfassung kopiere ich in einen neuen Chatverlauf.
Bei dir ist natürlich klüger, weil auch die Codesnippets mitgenommen werden.
 
Ich arbeite mit dem free Model von Claude. Programmiere damit seit Anfang März eine Anwendung. Die hat nun so 30 Dateien und über 8000 Zeilen code. Läuft immer noch alles in einem Chat im Browser. Ich lasse mir immer alle Änderungen als ZIP File ausgeben, dann kann ich bequem die geänderten Dateien in die Ordner Struktur kopieren.

Habe nicht einmal wieder was hoch laden müssen oder dumme Fragen beantworten. Claude ist immer orientiert. Hat sich allerdings auch schon mehrfach selbst komprimiert.
 
Zurück
Oben