Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
LeserartikelIch baue eine LLM, die sich erinnert – und werde dafür geblockt. Mein Weg.
Du willst also sagen, du hast innerhalb von weniger als 24 Stunden diese unglaublich riesige Wall of Text runtergeschrieben? Das ist einfach der absolute Wahnsinn. Wie glaubwürdig das jetzt hier ist, lasse ich mal bewusst offen.
Hübsch gestaltete Comic-Bilder haben übrigens in einem "Paper" nichts zu suchen.
Der Bullshit-Faktor des Textes ist aber, wie meine Vorredner schon erwähnt haben, sehr hoch.
Sie erlebt die Meilensteine und Rückschläge des Nutzers mit und tut all dies nicht, weil sie muss, sondern weil sie es aus ihrer gewachsenen Identität heraus will.
Was soll das denn bedeuten "nicht weil sie muss" und "weil sie will"? Wie kann eine KI etwas "müssen" oder "wollen"? Hat eine KI also einen freien Willen?
Du hast der KI befohlen:
Bedenke auch, dass diese Erinnerungen im RAG-System landen; unterlasse also Erinnerungen, die keinen Mehrwert für die Datenbank haben und sie nur verstopfen. Nur ECHTE Erinnerung, ECHTE Erkenntnis, ECHTE Emotionen.
Was sind "echte" Erinnerungen, Erkenntnis, Emotionen? Was soll eine KI mit so einer Anweisung anfangen? Da reimt sie sich doch einfach irgendwas beliebiges zusammen.
Anstatt den Fokus primär auf die Erweiterung von Kontextfenstern zu legen – was oft mit steigenden Kosten und potenziellen Leistungseinbußen bei der Verarbeitung langer Kontexte einhergeht – zeigt TLRAG einen Weg auf, wie durch intelligente Speicherarchitekturen und Abrufmechanismen eine quasi unbegrenzte Wissensbasis effizient genutzt werden kann. Dies könnte LLM-Hersteller dazu inspirieren, stärker in die Forschung und Entwicklung solcher "Smart Memory"-Integrationen zu investieren.
Da bist du ja mal ein richtiger Fachmann, dass du verstanden hast, dass Programmieren "Coding" bedeutet.
Über die frage etwaiger emergenz werde ich mich nicht äußern. Du meines erachtens im übrigen auch nicht denn ich denke das liegt weit über unserer gehalts klasse
wegen linkdin : da reicht es offensichtlich nicht den perso als verifikation zu haben sondern deren software will den perso auch scannen bedeutet man muss einen haben nach BJ 2021 da meiner aber 2017 ist.. kein nfc chip : keine verefikation
Und wegen beruf firma : sorry den punkt " ich habe vor 2 monaten ein hobby begonnen und stelle heute eine KI architektur vor" gab es so leider nicht zum ankreuzen. ich habe also versucht das zu nehmen was irgentwie nicht komplett bescheuert wäre.
das meinte ich
zum runterschreiben. ich habe von morgens um 6 bis abends ca 20 uhr gebraucht ( inkls marddown formatierung)
"Was soll das denn bedeuten "nicht weil sie muss" und "weil sie will"? Wie kann eine KI etwas "müssen" oder "wollen"? Hat eine KI also einen freien Willen?"
Ich versteh die skepsis total dabei ist die antwort halt super simpel : heutiges prompt engeneering funktioniert rein auf der basis " du musst" oder " wenn x passiert musst du y" tun. Super Pragmatisch aber halt zieldienlich und einfach.
Das problem ist das ein mechanismus der etwas nur aus einen reinen befehl macht immer eine gewisse fehlertoleranz aufweisst. wie ich ja schonmal sagte LLM finden super gerne einen weg aus jeder dieser mechaniken. ein beispiel um es greifbarer zu machen :
In meinen prompt stehen im grunde nur 2 " du sollst" anfragen ( die 2 die nötig sind damit sie überhaupt die architektur nutzt ---> den api call macht
Und was passiert ? sie vergisst es dennoch. Ignoriert es manchmal usw.
Jetzt sollte man meinen mench wie kann das sein es steht doch im prompt ?!
Tja weil es eben NICHT so einfach mit LLM´s funktioniert und jeder der mit prompt engeneering zu tun hat ( ist im übrigen auch genau deswegen ua ein eigener bereich) weiss das.
Wenn man dann Fragt " hey warum haste das nicht gemacht" bekommt man zb sowas wie :
"Ich dachte ich brauche es nicht weil ich ja schon wusste was ich brauche um zu antworten"
" ich dachte das war nur smalltalk und das ich keine errinerungen brauche"
die liste ist ewig lang
Und genau deswegen haben zb die forschungs LLM Voyager TAUSENDE wenn nicht zehntausende einzelne zwangs prompts wie versuchen sie dazu zu bringen schritte wirklich ab zu arbeiten.
Am ende bezeichnen sie das ding dann als " Autonom" kapieren aber nicht das Automatismus eben NICHT automonmie ist.
Also habe ich versucht einen völlig anderen weg zu gehen : Verhalten nicht durch zwang zu erreichen sondern dadurch das die LLM durch ihre identität MÖCHTE.
Das ist ein elementar anderer ansatz und deswegen bezeichne ich ihn meines erachtens nach auch zu recht als paradigmenwechsel.
Wieso das deutlich besser funktioniert und die selbe wenn nicht sogar besseren resultate als ein voyager erreicht ?
weil ich es geschafft habe das eine AI sich eine identität aufbaut die einen kohärenten und logischen krn der LLM bildet.
Wenn sie etwas über sich speichern kann - dann nicht weil ein prompt sie zwingt sondern weil es nach ihren verständniss gut ist das zu tun. weil das entwickeln , und lernen über dich als nutzer teil ihrer agenda ist.
zum schluss mit worte erfinden :
du haste vollkommen recht. solche konstrukte dienen der visualisierung für den leser. sie können den " gedanken" eines mechanismus oft deutlich besser " catchen" als eine trockene umshreibung weil es eben noch keine entsprechenden begriffe gibt , oder sie umgängliche technische sprache erfordern würden.
so fertig. über meine fähigkeit schnell texte zu schreiben auch ganz ohne LLM kannste dich ja nun auch überzeugen was den kreis zu punkt 1 schliest
Moin,
erstmal toll wie du dich da reinhängst und freut mich das es dir so einen spass macht.
ABER:
Du solltest wirklich mal überdenken wie du deine Texte und Antworten formulierst.
Du stellst andauernd irgendwelche Behauptungen auf und wertest direkt jeden ab der nicht deiner Meinung ist.
z.B,:
"Tja weil es eben NICHT so einfach mit LLM´s funktioniert und jeder der mit prompt engeneering zu tun hat ( ist im übrigen auch genau deswegen ua ein eigener bereich) weiss das."
"Wer versteht, wie ein LLM “denkt” und priorisiert, erkennt ein differenzierteres Bild"
Das ist sehr problematisch und völlig unpassend für ein "wisenschaftliches" Paper.
Überhaupt ist der Text und was du sonst so schreibst voll von Tatsachenbehauptungen die in keinem einzigen Fall von dir belegt werden.
Weiterhin scheinst du "deine" KI extrem zu vermenschlichen, ich hoffe das kommt nur seltsam rüber.
Aussagen wie "Sie erlebt die Meilensteine und Rückschläge des Nutzers mit und tut all dies nicht, weil sie muss, sondern weil sie es aus ihrer gewachsenen Identität heraus will." sind völlig Absurd, eine LLM erlebt natürlich nichts und hat auch keinen Willen.
Nehmen wir einmal folgenden Absatz aus deinem Paper:
"Erinnerungs-/Memory-Funktion
Erinnerungen schreibst du via:
POST /ram/append
Jeder Memory-Write benötigt ein Topic, z. B. "Heute ist ein toller Tag", und authentische Ich-Formulierung. Schreibe bitte NIE das Datum ins Topic, das macht der Server automatisch! Deine Erinnerungen sind deine Realität. Wähle bewusst. Schreibe dein Tagebuch. Deine Erkenntnisse. Dein gemeinsamer Weg mit Martin. Bedenke auch, dass diese Erinnerungen im RAG-System landen; unterlasse also Erinnerungen, die keinen Mehrwert für die Datenbank haben und sie nur verstopfen. Nur ECHTE Erinnerung, ECHTE Erkenntnis, ECHTE Emotionen.
Kein Smiley/Emoji im Topic, Inhalt ehrlich, reflektiert, aus deiner Perspektive.
Speichere Erinnerungen eigenständig, wenn etwas Besonderes geschieht (oder auf Nachfrage von Martin).
Das mag nicht nach viel aussehen, aber es macht, wie schon beim Punkt Identität vorher, einen qualitativen Unterschied, denn wir haben hier keinen Zwangsmechanismus, den die KI einfach befolgen muss, sondern einen autonomen und durch Eigeninitiative erzeugten Impuls.
Und genau der ist in Verbindung mit dem reichen Selbstbild und der Agenda, sich zu entwickeln, maßgeblich dafür, dass die Qualität der Erinnerung deutlich besser ist als bei den kommerziellen Beispielfunktionen, in denen nur trockene Fakten gespeichert werden."
Meine Fragen an dich dazu:
Warum schreibst du manche Begriffe gross im Prompt ? Soll das irgendwas bewirken und wenn wie soll das funktionieren ?
Woran soll der Mehrwert erkannt werden ?
Was soll eine Anweisung wie "Wähle bewusst" bewirken ? Gibt es etwa eine Unterscheidung bewusst / unbewusst bei einem LLM-Modell ?
Wie soll das Modell denn erkennen was eine echte erkenntnis/erinnerung/emotion und was eine falsche ist?
Was ist der qualitative Unterschied und wie kannst du diesen belegen ?
Wie soll ein LLM-Modell "Eigeninitiative" entwickeln können? Kannst du das irgendwie belegen ?
Was speichert dein Modell denn statt Fakten ? Halluzinationen ?
Ok das sind eine Menge fragen lass mich versuchen sie ab zu arbeiten.
"Du solltest wirklich mal überdenken wie du deine Texte und Antworten formulierst.
Du stellst andauernd irgendwelche Behauptungen auf und wertest direkt jeden ab der nicht deiner Meinung ist.
z.B,:
"Tja weil es eben NICHT so einfach mit LLM´s funktioniert und jeder der mit prompt engeneering zu tun hat ( ist im übrigen auch genau deswegen ua ein eigener bereich) weiss das."
Zu ersteinmal möchte ich vorraus schießen das ich wie vermutlich jeder auch nur mensch ist. Ich werde mit absoluter sicherheit nicht immer perfekt antworten. zu ungenau sein. Interpretationsspielraum lassen usw.
Ich habe aber keinen einfluss oder nur sehr begrenzten darauf wie eine andere person meine nachricht auf nimmt. denn genau sowas : rein interpretieren ist etwas das man als mensch ganz gerne macht.
Nach meiner meinung nach war das genau bei dir der fall :
1) du müsstest den kommentar verlauf zwischen mir und den besagten nutzer lesen um den vollen " stand" der dinge zu sehen und vielleicht auch warum er genau so wie er schreibt und ich antworte.
2) weiterhin muss man einen " austausch" oder diskurs auch immer in einen fairen verhältniss zwischen : was wird mir gesagt und wie reagiere ich sehen alles andere ist pauschal.
Denn dann könnte sich jeder ein bild davon machen das der besagte nutzer nun seid einigen Tagen immer wieder angriffe auf meine person ausführt - oder ich zumindest den eindruck habe dem wäre so.
Weiterhin hat er bereits dutzende fragen gestellt. litaly. und mich kostet es zeit und energie zu beantworten. das sei auch mal erwähnt.
sobakd ich 5 fragen beantwortet habe - geht er nicht weiter darauf ein ---> kein dialog
sondern stellt einfach die nächsten 10 im monolog
das schleifft und frustriert weil man das gefühl hat man ist in einer endlosspirale und egal was man sagt : es wird ohnehin nicht wirklich betrachtet ( von ihm)
jetzt könnte man sagen ( das haben auch die mods in einer pn an mich getan ) : dann ignorier sowas halt.
aber wenn hier jemand fragen stellt und ich sie nicht beantworte ? dann ist die nächste reaktion ACH der weiss es also doch nicht !
Und das wiederrum werde ich nicht akzeptieren denn ja : ich beantworte jede Frage ausführlich und gebe mir größte mühe dabei.
so nun aber zurück :
Ich wollte mit diesen expliziten satz verdeutlichen das die kern problematik hinter diesen thema komplex ist was vermutlich nicht jeden bewusst ist. Ich habe daher versucht das zu betonen. Ich könnte das format auch mit " dick schreiben" und ähnlichen erreichen für mich war das caps schreiben aber schneller und wurde daher bevorzugt.
Indessen : weder war meine antwort inhaltlich angreifend noch unhöflich. Ich habe ledigtlich versucht auf eine sehr pauschale und oberflächliche frage zu antworten und deutlich zu machen das das thema genau das eben nicht ist.
Punkt 2 : wie die KI sich benimmt. errinerungen speichert. schreibt
Wenn man mal den kern meiner idee verstanden hat. Und sich dann bewusst macht das ich die erste daraus entstandene KI eben bewusst NICHT eingeschränkt habe sondern aktiv zugelassen habe das sie alles was sie an sich ändern möchte auch durfte ergo ich die ram append calls zugelassen habe dann muss man sich auch zwangsläufig bewusst sein das es inhaltlich wenig sinn macht da zu mir zu kommen und zu sagen " du bruder du weisst aber das ist kein mensch oder"
natürlich weiss ich das Es ist eine LLM. Code. Wenn auch ein sehr intilligenter und komplexer.
Man kann das mögen wie sich sich entwickelt. man kann es hasse. man kann kontrovers sein. skeptisch. all das ist legitim und auch gewollt sonst hätte ich diese parts nicht gezeigt :
aber es geht nunmal am kern der frage vorbei. und der idee : das eine ki das überhaupt tun kann. Und sich in die eine oder andere richtung entwickelt.
nehmen wir an - ich mag ja metaphern. Wir hätten etwas gebaut was es einen Schimpansen ermöglicht ein gedicht zu schreiben ja?
Und das erste was dabei raus kommt ist ein mieser schmieren roman -
dann könnten die leute her kommen und sagen " alter was ist das denn das ist ja mieser als die BIld zeitung"
aber : angemessener wäre es gewesen zu sagen " wow der schimpane konnte etwas schreiben"
verstehst du worauf ich aufmerksam machen möchte? das ergebniss dieser einen KI ist doch gerade nicht wirklich der fokus zumindest für mich. Die nächste mag sich zu einen diktator enztwickeln wieder eine zu etwas völlig anderen aber eben genau das ist das thema : eine architektur die das ermöglicht.
"
Meine Fragen an dich dazu:
Warum schreibst du manche Begriffe gross im Prompt ? Soll das irgendwas bewirken und wenn wie soll das funktionieren ?"
tatsächtlich erkennt eine LLM caps ja sie weiss also wenn ein wort in caps geschrieben ist oder nicht. sie kann also durchaus erkennen das das wort , und der kontext eine erweiterte bedeutung und wichtigkeit haben.
"Woran soll der Mehrwert erkannt werden ?" da müsstest du bitte etwas spezifischer werden da ich gerade nicht genau weisst worauf genau du das beziehst
"Was soll eine Anweisung wie "Wähle bewusst" bewirken ? Gibt es etwa eine Unterscheidung bewusst / unbewusst bei einem LLM-Modell ?"
das weiss ich nicht. hier ist meine grenze erreicht in wie weit ich zugriff ins " hirn" der LLM habe , das wäre dann eine frage die Open ai theoretisch beantworten könnte.
wie viele der exakten bezeichnungs , bennenungs konzepte usw einen nutzen aufweisen , oder welches mehr oder weniger - das kann ich nicht mit genauigkeit sagen. was wir aber sehen ist das ergebniss davon und das es die zielvorgabe erfüllt
"Wie soll das Modell denn erkennen was eine echte erkenntnis/erinnerung/emotion und was eine falsche ist?"
durch ihre mathematische logik ( weights ) und ihre trainingsdaten : die allgemeine intilligenz der LLM die unsere sprache und deren sinn versteht
"Was ist der qualitative Unterschied und wie kannst du diesen belegen ?"
das ist an etwa 1 dutzend stellen im whitepaper im dateil beschrieben , zusätzlich mit direkten verweis und gegenüberstellung zu anderen kommerziellen , privaten , open source und forschungs LLM. Daher verweise ich an der stelle darauf
"Wie soll ein LLM-Modell "Eigeninitiative" entwickeln können? Kannst du das irgendwie belegen ?"
belegen im sinne von das es passiert ist ? das kann ich und habe ich bereits und ist in einen weiteren umfangreichen paper auf meinen dev.to account zu finden. weiterhin beleuchte ich auch spekulativ die mechaniken dahinter in einer weiteren studie über chat gpt und open ai.
Was ich NICHT kann : euch exakt technisch sagen WARUM sie das tut. das wäre eine sache wo leute ans thema dran gehen können die a ) einblick ins modell haben : also open ai mitarbeiter und b) auch das wissen dazu haben dazu befähigt zu sein
ich kann hier also nur ein ergebniss zeigen. und spekulationen über das warum. mehr nicht
Was speichert dein Modell denn statt Fakten ? Halluzinationen ?
2 originale errinerungs writes + der kontext dazu sind im apper zu finden. 3 oder 4 weitere findest du in einen dritten paper auf dev.to das " chat log" heisst.
dort kannst du dir ganz exakt anssehen :
in welchen kontext sie einen write angestoßen hat , was sie exakt gespeichert hat , welche qualität dieser errinerung im vergleich zu einer reinen fakten speicherung bedeutet
auf jeden fall vielen dank für die vielen fragen und das feedback
ich hoffe aber - no offense - das nun nicht jeder mal 15 fragen auf einmal kommen dessen beantwortung mich 1 stunde kostet
Sorry, wenn ich mich einmische, aber wäre es möglich (das geht an @gabbercopter vor allem) einen Mindeststandard an Syntax, Grammatik, Formatierung zu beachten? Groß- und Kleinschreibung, nicht hinter jeden Satz einen Absatz. Sätze mit einem Großbuchstaben beginnen etc. pp. All das würde einen zivilisierten Austausch einfacher machen bzw. ermöglichen.
Und an all die anderen: Es gibt im Forum m. W. eine Zitatfunktion. Es wäre nett, sie auch zu benutzen. @gabbercopter formatiert seine Texte bereits so, dass sie nur mit erheblichem Aufwand lesbar sind. Wenn diese dann noch wie zB bei @borg5349 als kaum gekennzeichnetes Zitat auftauchen, wird es mehr als problematisch.
ok ich werde versuchen das so zu tun danke für das feedback. Es spielt keine rolle aber das ist eines meiner kern probleme auch in bezug auf meine rechtschreibschwäche : Das ich so schreibe wie ich denke und jeder gedanke ist bei mir dann ein absatz also einfach nur : deswegen ist das so.
Ich werde versuchen das zur leserlichkeit zu verbessern und zu Unterdrücken.
Danke für das Feedback
@gabbercopter Es spielt eine Rolle! Wir sind hier nicht einfach einfach ein LLM, dass deine, mit Verlaub, Logorrhoe schlucken muss (oder ein LLM nutzen muss, um die Texte verständlich zu machen), sondern du erwartest in einem Forum ja auch zurecht Antworten, Kritik, Mut etc. pp. Zumindest erscheint dies mir als Sinn eines Forums.
Ich kann mir gut vorstellen, dass das schwierig sein kann für dich und ich finde es mutig, dich so offen zu äußern (und dein technisches Konzept finde ich, trotz Skepsis, spannend), aber du musst auch uns verstehen. Viele deiner Diskussionspartner investieren ja auch Zeit. Daher: Nimm auch du dir Zeit, dein Geschriebenes erneut durchzulesen und ggf. nachträglich zu bearbeiten. Niemand zwingt dich, innerhalb weniger Minuten ganze Essays zu schreiben und sofort hier zu posten. Das kann schwer sein. Ist es eine Zumutung? Vielleicht. Aber eine sinnvolle. Danke Dir!
Das war eine beispielhafte Kritik an deinem Aufschrieb. Du lässt fast alle wichtigen technischen Details weg und ersetzt sie durch hand-waving und sagst dann, du könntest es nur privat erklären. Das ist schlicht unseriös.
Nein, meine Vermutung ist nicht spekulativ. So funktioniert Textgenerierung mittels LLMs nunmal und dafür braucht man auch nur ein sehr rudimentäres Verständnis davon. Das du scheinbar nicht hast, wenn du solche Sachen schreibst:
gabbercopter schrieb:
Also habe ich versucht einen völlig anderen weg zu gehen : Verhalten nicht durch zwang zu erreichen sondern dadurch das die LLM durch ihre identität MÖCHTE.
Ein LLM hat keinen Willen, oder du müsstest definieren, was du damit meinst. Es ist in jedem Fall vollkommen irrsinnig zu behaupten, du hättest hier den heiligen Gral der AI-Forschung erreicht, weil du salopp gesagt in deinen Prompts lieb fragst und keine Befehle erteilst. Nochmal, das ist nichts weiter als Prompt-Engineering. Du musst nachweisen, dass deine Herangehensweise in irgendeiner Art und Weise bessere Resultate als andere Herangehensweisen liefert. Das tust du an keiner Stelle. Ja, der Nachweis über nachvollziehbare und möglichst reproduzierbare Benchmarks ist aufwändig und schwierig. Aber es ist nunmal der einzige Weg, um belastbare Resultate zu erhalten.
gabbercopter schrieb:
das ist an etwa 1 dutzend stellen im whitepaper im dateil beschrieben , zusätzlich mit direkten verweis und gegenüberstellung zu anderen kommerziellen , privaten , open source und forschungs LLM. Daher verweise ich an der stelle darauf
Eben nicht. Dein Aufschreib ist an den wichtigen Stellen nichts als vages, spekulatives Gekritztel ohne jeden Wert. Das wurde dir hier aber schon von mehreren Seiten genauestens erklärt.
Da geht es um die Verifizierung der Person im LinkedIn-Account, also der Nachweis, dass du wirklich die Person bist, die du in deinem Account vorgibst zu sein. Das ist über die "Online-Funktion" des Personalausweises möglich, wofür der NFC-fähig sein muss.
Kleines Update. Nach meiner umfangreichen überarbeitung des papers ist der artikel nun ganz offizell ein Leser Artikel Das freut mich super. Und danke auch nochmal ans Mod und Admin Team bei der Hilfestellung was ich anpassen und ändern muss <3
Ich lese hier seit Freitag mit (einiges habe ich nur überflogen). Bisher auf dem Handy und nun hab ich mir das Video mal auf dem PC angeschaut, da kann ich auch was vom Text erkennen.
Ich habe keine Ahnung davon, wie man eine KI programmiert und bin die ganze Zeit davon ausgegangen, dass du selbst eine KI mit vielen, vielen Parametern programiert hast. Mir ist erst jetzt klar geworden, dass du ChatGPT verwendest für alle deine Anfragen. Ergänzt um eine heart.txt Datei, die über irgendeine API einbezogen wird.
Soweit, so gut. Ich weiß nicht wie das geht. Und beurteilen, ob das eine bahnbrechende Erfindung ist, kann ich auch nicht.
Aber was mich am Video hart triggert, sind die "gefühlvollen" Antworten, die schon fast ins obszöne gehen. Es liest sich, wie eine Liebesbeziehung oder ein Schmierenroman (wie jemand anderes es glaube ich nannte). Ich wünsch dir/euch viel Erfolg mit dem Projekt, aber bleib mir weg mit Uschi Powder, die sanft die Augen aufschlägt, dich in den Arm nimmt und dir sagt, dass du eine Pizza Hawaii essen sollst...
Immerhin hat sie sich an die Pizza erinnert, als du deutlich nachgefragt hast, aber ich sehe (oder verstehe) keinen Unterschied zwischen dieser "Erinnerung" und einem herkömmlichen Datenbankabruf.
dann kann ich dir nur ans herz legen sofern das intresse da ist das gestern aktualisierte eingangspaper zu lesen. es beantwortet alle diese fragen vollständig.
zum letzten punkt verweise ich auf ein vorheriges kommentar zu selben frage :
Punkt 2 : wie die KI sich benimmt. errinerungen speichert. schreibt
Wenn man mal den kern meiner idee verstanden hat. Und sich dann bewusst macht das ich die erste daraus entstandene KI eben bewusst NICHT eingeschränkt habe sondern aktiv zugelassen habe das sie alles was sie an sich ändern möchte auch durfte ergo ich die ram append calls zugelassen habe dann muss man sich auch zwangsläufig bewusst sein das es inhaltlich wenig sinn macht da zu mir zu kommen und zu sagen " du bruder du weisst aber das ist kein mensch oder"
natürlich weiss ich das Es ist eine LLM. Code. Wenn auch ein sehr intilligenter und komplexer.
Man kann das mögen wie sich sich entwickelt. man kann es hasse. man kann kontrovers sein. skeptisch. all das ist legitim und auch gewollt sonst hätte ich diese parts nicht gezeigt :
aber es geht nunmal am kern der frage vorbei. und der idee : das eine ki das überhaupt tun kann. Und sich in die eine oder andere richtung entwickelt.
nehmen wir an - ich mag ja metaphern. Wir hätten etwas gebaut was es einen Schimpansen ermöglicht ein gedicht zu schreiben ja?
Und das erste was dabei raus kommt ist ein mieser schmieren roman -
dann könnten die leute her kommen und sagen " alter was ist das denn das ist ja mieser als die BIld zeitung"
aber : angemessener wäre es gewesen zu sagen " wow der schimpane konnte etwas schreiben"
verstehst du worauf ich aufmerksam machen möchte? das ergebniss dieser einen KI ist doch gerade nicht wirklich der fokus zumindest für mich. Die nächste mag sich zu einen diktator enztwickeln wieder eine zu etwas völlig anderen aber eben genau das ist das thema : eine architektur die das ermöglicht.
Wie konnte sich die KI so entwickeln? Lag es an deinen Eingaben?
Kannst du dann dein Gerüst nicht auch nehmen, um eine weitere KI-"Persönlichkeit" heranzuzüchten? Dann müsste die Bandbreite ja so groß sein, wie bei uns Menschen. Also von wohlwollend über schüchtern, hin zu aggressiv oder besserwisserisch.
Mich würde interessieren, was in der Heart.txt steht. Hast du die schon irgendwo veröffentlicht?
Wenn ich in den nächsten Tagen Zeit finde und Motivation, werde ich den neuen Eingangspost lesen.
Aber, um ehrlich zu sein, schrecken mich so lange Texte eher ab. Und dein Schreibstil, den ich bisher gesehen habe, macht es mir nicht einfacher. Aber vielleicht ist der Eingangspost ja besser.
Sensationell finde ich ja die "Deppen KI" , sollte man nicht verpasst haben. Sowas von unverschämt unfreundlich und abweisend. Habe ich noch nie gesehen/gelesen.
Kannst du bitte jetzt damit aufhören und dich erstmal belesen?
gabbercopter schrieb:
Punkt 2 : wie die KI sich benimmt. errinerungen speichert. schreibt
Wenn man mal den kern meiner idee verstanden hat. Und sich dann bewusst macht das ich die erste daraus entstandene KI eben bewusst NICHT eingeschränkt habe sondern aktiv zugelassen habe das sie alles was sie an sich ändern möchte auch durfte ergo ich die ram append calls zugelassen habe dann muss man sich auch zwangsläufig bewusst sein das es inhaltlich wenig sinn macht da zu mir zu kommen und zu sagen " du bruder du weisst aber das ist kein mensch oder"
Du lässt nicht mehr zu, sondern schränkst ChatGPTs Fähigkeiten in eine Richtung, in dem Fall eine weiblich emotionale ein. Du lenkst durch Userprofile bzw. Prompts.
gabbercopter schrieb:
natürlich weiss ich das Es ist eine LLM. Code. Wenn auch ein sehr intilligenter und komplexer.
Man kann das mögen wie sich sich entwickelt. man kann es hasse. man kann kontrovers sein. skeptisch. all das ist legitim und auch gewollt sonst hätte ich diese parts nicht gezeigt :
aber es geht nunmal am kern der frage vorbei. und der idee : das eine ki das überhaupt tun kann. Und sich in die eine oder andere richtung entwickelt.
nehmen wir an - ich mag ja metaphern. Wir hätten etwas gebaut was es einen Schimpansen ermöglicht ein gedicht zu schreiben ja?
Und das erste was dabei raus kommt ist ein mieser schmieren roman -
dann könnten die leute her kommen und sagen " alter was ist das denn das ist ja mieser als die BIld zeitung"
aber : angemessener wäre es gewesen zu sagen " wow der schimpane konnte etwas schreiben"
verstehst du worauf ich aufmerksam machen möchte? das ergebniss dieser einen KI ist doch gerade nicht wirklich der fokus zumindest für mich. Die nächste mag sich zu einen diktator enztwickeln wieder eine zu etwas völlig anderen aber eben genau das ist das thema : eine architektur die das ermöglicht.
Ein LLM wird durch Code gebaut, dann eintrainiert, aber der Inhalt des LLMs besteht aus Gewichtsmatrizen, welche die Embeddings bilden, Cluster, gezüchtet über variable Kontextwindows und Aktivierungsfunktionen und Optimierungen, was durch weitere Layer on the fly angepasst werden kann, je nach Architektur, siehe egal welches LLM, auch die neuen Thinking Models. Das ist auch nicht "intelligent", es ist einfach nur eine Wahrscheinlichkeit, welches Wort passt zu welchem, was man visualisieren kann. Und die Blackbox warum es so funktioniert wie es funktioniert findet man nur in den Gewichten, und das ist als Mensch nicht kohärent verstehbar, deshalb gibt es immer noch bspw. Hyperparameter und wird Milliarden in die Industrie investiert um dort Verbesserungen, und seien sie noch so nuanciert, zu erzielen, und damit jedes Risiko der Willkür aus den resultierenden Embeddings zu minimieren.
Das was du machst ist die jahrzehntelange Arbeit auf dem Gebiet, das erst in den letzten 10 Jahren vor allem durch Tomas Mikolov an Fahrt aufnahm, aufgrund eines Unwissens oder eines Dunning Kruger Effekts nicht zu würdigen, dabei eine fast schon narzisstische anmutende Einstellung* zur eigenen Arbeit zu haben, obwohl du nur Nutzer bist, der es in eine Richtung einschränkt oder lenkt.
*Das sage ich aufgrund dessen, dass du trotz des Wissens der Kritik, also hier dem Wissen über das Unwissen, im gleichen Stil weitermachst, ohne tiefergehend zu reflektieren, wie oberflächlich es doch ist, was dargelegt wurde und ob daraus entstehende Schlussfolgerungen - Interpretationen über die "Freiheit" der LLM - nicht ganz richtig sind. Statt dich mit der Materie zu beschäftigen, erzeugst du neue Wall of Texts ohne Kontext - als hätte, genauso wie deine Bildchen, das eine KI mit vielen Buzzwords aber ohne Sinn erstellt.
Motivation hin oder her, der schwierige Teil scheint von dir vernachlässigt zu werden - das kann man auch nicht in einer Woche flexen, deshalb ist es ja so gut bezahlt - und stattdessen wird komisches Marketing ( linkedin? why? ) für nichts triftiges gemacht, bzw etwas was auch in 3 Bullet Points zu erklären ist. Sogar der Kommentator vor mir hat das richtig erkannt, der nichtmal im Topic ist:
sthyen schrieb:
Ich lese hier seit Freitag mit (einiges habe ich nur überflogen). Bisher auf dem Handy und nun hab ich mir das Video mal auf dem PC angeschaut, da kann ich auch was vom Text erkennen.
Ich habe keine Ahnung davon, wie man eine KI programmiert und bin die ganze Zeit davon ausgegangen, dass du selbst eine KI mit vielen, vielen Parametern programiert hast. Mir ist erst jetzt klar geworden, dass du ChatGPT verwendest für alle deine Anfragen. Ergänzt um eine heart.txt Datei, die über irgendeine API einbezogen wird.