Notiz CB-Funk-Podcast #115: Darum sind KI-Chatbots immer noch zum Haareraufen

Vitche

Redakteur Pro
Teammitglied
Registriert
Aug. 2016
Beiträge
4.080
Das Thema KI ist nach wie vor in aller Munde, die allseits bekannten KI-Chatbots halluzinieren aber weiter munter vor sich her. Für Andy und Fabian ist das manchmal zum Haareraufen, wie die beiden anhand einer von OpenAI veröffentlichen Liste der zehn häufigsten Anfragentypen in Deutschland besprechen.

Zur Notiz: CB-Funk-Podcast #115: Darum sind KI-Chatbots immer noch zum Haareraufen
 
  • Gefällt mir
Reaktionen: BrollyLSSJ, axi, Otorva und 3 andere
Die traurige Wahrheit ist das ein LLM genau 0,0 Intelligenz enthält.

Ein paar Forscher haben neulich mal eine KI gefragt was 35 + 35 ist und dann alle Schritte der KI analysiert. Die KI hat stumpf und ohne jegliche Logik einfach in all seinen Trainingsdaten nach 35 gesucht, völlig egal in welchem Kontext die 35 vorkam.

Im Grunde ist es einfach ein "best next Word/Token predicter" ohne jegliche Intelligenz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JuanBoccas, dr. lele, trabifant und 8 andere
ChatGPT 4o ist mit deinem Kommentar so nicht zufrieden:
Die Aussage ist polemisch und technisch ungenau.

Richtig ist: LLMs wie ich rechnen nicht wirklich und haben kein Verständnis im menschlichen Sinn. Sie modellieren Sprache auf Basis von Wahrscheinlichkeiten – also: „Welche Zeichenfolge ist am wahrscheinlichsten als nächstes?“

Falsch ist aber die Behauptung, LLMs würden „stumpf nach 35 suchen“. LLMs analysieren Kontexte und Muster in Textdaten, nicht nur Tokens isoliert. Ein LLM kann durchaus erkennen, dass "35 + 35" typischerweise "70" ergibt, weil es das Muster oft gesehen hat – nicht weil es nach einzelnen Zahlen sucht, sondern weil es Sprachmodelle über mathematische Ausdrücke hinweg gelernt hat.

Kurz: Kein echtes Rechnen, keine echte Logik – aber auch kein reines Copy-Paste.
:hammer_alt:
 
  • Gefällt mir
Reaktionen: Karutahi, JuanBoccas, interesTED und 15 andere
Warum kann ein LLM keine Intelligenz enthalten?

Wenn man mal überlegt, ein Mensch hat auch kein Wissen, wenn er auf die Welt kommt. Lesen und Schreiben muss gelernt werden. Wenn man ein Bild eines Tisch sieht und gesagt bekommt, dass das ein Tisch ist, ist es ein Tisch. Aber es könnte auch ein Baum oder was auch immer sein. Man muss das erlernen. Durch das Sammeln von Bildern, die man sich einprägt, Sammeln von Gehörtem usw kann man eine Verknüpfung erstellen und Dinge so kombinieren. Wieso sollte ein Computer mit entsprechender Fütterung an Daten nicht ähnlich denken können? Oder kann ein Mensch dann auch keine Intelligenz in diesem Sinne enthalten?

Ein Artikel über die verschiedenen Ansätze von „KI“ fände ich mal interessant. Vielleicht stelle ich mir das auch alles nur so einfach vor. Ich weis es nicht.
 
  • Gefällt mir
Reaktionen: John Connor, RobRob89, ###Zaunpfahl### und eine weitere Person
Ah, es tut mir btw leid, dass man wieder mein verschupftes Schniefen hören darf, aber ich hab's heute schon wieder vergessen und leider war #RTX off. Nächste Woche dann hoffentlich wieder mit Broadcast. 😅
 
  • Gefällt mir
Reaktionen: Zarlak, PietVanOwl und fox40phil
Vitche schrieb:
ChatGPT 4o ist mit deinem Kommentar so nicht zufrieden:

ChatGPT sagt halt das womit es trainiert wurde. Wenn ChatGPT zum Großteil mit Daten über eine flache Erde statt dem aktuellem wissenschaftlichen Stand trainiert werden würde, dann wäre die Antwort der KI auf die Frage, ob die Erde flach und eine Kugel ist, das sie flach ist.

Das heißt aber natürlich nicht das ein LLM nutzlos ist. Im Gegenteil!

Fur dich @Vitche. Sehr interessant:

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: interesTED, MalWiederIch und mightyplow
Es ist halt eine "als ob Intelligenz".
Nicht mehr, aber auch nicht weniger.
Computern via Sprache komplexe Befehle geben und auch auf sinnvolle Nachfragen hoffen wie "habe ich nicht verstanden" oder "soll es so oder so sein" würde schon echt sinnvoll sein.
Computer soll für uns arbeiten und uns nicht beschäftigen...
 
In letzter Konsequenz ist das, was heute als KI bezeichnet wird, nichts anderes als damals Eliza und Konsorten mit zwei Detailänderungen:
1) Die Datenbank im Hintergrund ist umfangreicher. (*)
2) Die Datenbak wurde damals manuell gefüllt und heute automatisiert.

(*) Die Liste der Schlüsselwörter in Eliza als Datenbank zu bezeichnen ist etwas ambitioniert. Doch in letzter Konsequenz handelt es sich um eine.
 
  • Gefällt mir
Reaktionen: Zarlak und fox40phil
wilk84 schrieb:
Die traurige Wahrheit ist das ein LLM genau 0,0 Intelligenz enthält.
herby53 schrieb:
Warum kann ein LLM keine Intelligenz enthalten?

Wenn man mal überlegt, ein Mensch hat auch kein Wissen, wenn er auf die Welt kommt.

Ich sehe das etwas anders. Man muss sich fragen was ist Intelligenz überhaupt? Besitzt der Mensch Intelligenz? Oder ein Bewusstsein? Meiner Einschätzung nach existieren weder Intelligenz noch Bewusstsein, beides eine Illusion.

Das menschliche Gehirn dürfte näher an einer LLM bzw "KI" Modellen sein, als dem einen oder anderen lieb ist.
Schaut man sich an, wie das menschliche Gehirn aufgebaut ist, ist es im grunde auch "nur" ein sehr komplexer mehrfach miteinander verknüpfter Graph von Wissen/Informationen, genauso wie trainierte KI Modelle.

Das Gehirn ist aber im ganzen nicht ein riesiges KI Modell. Und genau da muss man ansetzen, auf dem Weg zu einer "AGI". Wie funktionirt das Gehirn im "ganzen".

Wieso müssen wir eigentlich schlafen? Ich könnte mir vorstellen, dass der Schlaf sozusagen das Trainieren der Modelle ist. Es ist ein Speicher vorhanden, wo erst mal alles mögliche an Informationen welche über Sensoren über den Tag gesammelt wird im Schlaf dann verarbeitet und in den Modellen abgelagert wird.

Was wir als "Fantasieren" der KI Modelle bezeichnen ist im Grunde genau das, was das menschliche Gehirn permanent tut. Nehmen wir zB bestimmte Drogen ein, ist dieses Fantasieren so beeinflusst, dass wir auch Dinge fantasieren die nicht real sind. Das menschlichte Gehirn ist aber quasi perfekt darin, aus Sensorik und Wissen eine Realität zu fantasieren die wir als echt empfinden.

Dazu dürfte das Gehirn viele verschiedene trainierte Modelle besitzen eins für einen Zweck welche dann alle miteinander zusammen funktionieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: John Connor, Amboss89, Cinematic und 4 andere
Vitche schrieb:
ChatGPT 4o ist mit deinem Kommentar so nicht zufrieden:

:hammer_alt:
Irgendwie traurig zu wissen, dass nicht mal die gängisten mathematischen Grundlagen implementiert sind?! Wieso tun sie das? Man könnte doch damit noch viel mehr schaffen?


PS: Gestern habe ich mit ChatGPT eine wunderbare Prüfungsaufgabe gegengecheckt und der Bot spuckte uns noch echt gute Erklärungen aus. Also das fand ich schon sehr beeindruckend! Ich dachte zu vor, dass es nicht damit klar kommen würde.
 
Es fehlen wie üblich die Metadaten. Ein LLM ist heute ein Sammelsurium aus Statistic und Datenbank. Für ein Gedächtnis fehlt aber die positiv und Negativsortierung für Bedeutung. Deswegen kann ein LLM auch 35+35 nicht als Rechenaufgabe lösen. Einfach weil es kein Verständnis von Formeln, Zahlen oder Mathematik etc. hat. Deswegen hat ein Menschliches Hirn eine angeborene Vorstellung eines Mengenstrahls und der Zeit. Intelligenz kann auch keine Illusion sein. Das Bewusstsein existiert aus sich selbst oder die Frage würde sich nicht stellen.
 
Ich nutze seit einiger Zeit Mistral/Le Chat. Ist ganz praktisch für das ein oder andere. Aber genauso oft hat es mir auch null weiter geholfen, da war dann eine schnelle Suche mit EnteEnteLos schneller zielführend.

dernettehans schrieb:
Man muss sich fragen was ist Intelligenz überhaupt? Besitzt der Mensch Intelligenz?

:volllol:

Vitche schrieb:
ChatGPT 4o ist mit deinem Kommentar so nicht zufrieden:

:hammer_alt:

Das würde eine KI auch sagen! :daumen:
 
dernettehans schrieb:
Man muss sich fragen was ist Intelligenz überhaupt? Besitzt der Mensch Intelligenz? Oder ein Bewusstsein? Meiner Einschätzung nach existieren weder Intelligenz noch Bewusstsein, beides eine Illusion.
Empathie wird eine Maschine nie erlernen können. Genauso wenig wie eine Seele zu besitzen.
Intuition wird auch niemals vorhanden sein.

Der Mensch ist etwas ganz anderes wie KI da der Mensch eben vom Wesen nicht rational ist.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Dass die aktuelle "KI" eher ein besserer Scanner ist, welcher dieses "Wissen" nur schneller gebündelt einholt und wiedergibt, entspricht wohl eher dem aktuellen technischen Stand analog eines Schachbretts nur mit mehr Feldern bzw. Sprungvarianten oder eben mehr Tempo.

Nur im Management oder an den Börsen glaubt man wohl immer noch an ein Skynet System.

Das Erwachen kommt dann nicht nur mit den eingeschränkten Fähigkeiten, sondern auf einmal kosten alle Abfragen mit horrenden Lizenz Modellen auch so viel mehr Geld, auf dass man u. a. auch wegen diverser noch ungeklärter Datenschutzthemen und Fehleranfälligkeiten weiterhin noch auf billigere und vor allem persönlichere menschliche Mitarbeiter setzt.
 
Zwei Anmerkungen zu den Durchfallquoten.

Ich kann von vor 10 Jahren nur sagen, dass die Durchfallquote da auch schon bei 30-50% je nach Uni/FH war. 20% halte ich für enorm wenig. Gerade am Anfang gibt und gab es immer schon viele im ersten Semester, die noch auf der Suche waren und für viele ist eben auch Informatik nichts.

Das Andere ist, wie hoch ist die Motivation sich aktuell alles selbst beizubringen um dann in 2 Jahren zu merken, dass man überhaupt nicht mehr programmieren muss. Es geht auch weniger darum, was alles aktuell funktioniert, sondern was es können wird in ein paar Jahren.

Das ist auch meine Angst, KI und deren Möglichkeiten als Motivationskiller.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
Fighter1993 schrieb:
Empathie wird eine Maschine nie erlernen können. Genauso wenig wie eine Seele zu besitzen.
Intuition wird auch niemals vorhanden sein
herby53 schrieb:
Warum kann ein LLM keine Intelligenz enthalten?
Aussagen darüber lassen sich nur dann treffen wenn vorher genau definiert ist was "man" bzw. du darunter verstehst.
Bei Intelligenz z.B. gibt es NICHT die EINE Definition, selbst die Fachwelt ist sich da uneinig. Worüber sich aber zumindest viele einig sind ist dass es unterschiedliche Arten von Intelligenz gibt die sich grundsätzlich voneinander unterscheiden. (z.B. fluide Int. welche man auch als Sammelbegriff für Auffassungsgabe, Scharfsinn, und die Fähigkeit in einer herausfordernden Situation eine adäquate Entscheidung zu treffen. kristalline, emotionale usw...)
Gleiches gilt für die Begriffe wie Seele und Intuition. Jeder "weiß" im Prinzip was gemeint ist aber keiner kann ganz im Stile einer Duden Definition mit universaler Gültigkeit sagen was genau sich dahinter verbirgt.

Aus diesem Grund sich jegliche Kommentare die in die Richtung gehen KI hat keine Seele ist nicht intuitiv und wird dem I im Namen nicht gerecht und kann es auch nie werden bzw innehaben, weil.... völlig sinnbefreit und überflüssig. Da in Ermangelung der Definition nicht gesagt werden kann welche Eigenschaften nicht vorhanden sind.
Vor allem bei dem Begriff oder besser gesagt Seele wäre ich vorsichtig, denn der ist eigentlich eine undefinierte Mischung aus purer Metaphysik und Religiösen Vorstellungen, welches wiederum zwei Bereiche sind die in höchstem Maße von dem Subjekt abhängen und daher schon aus Prinzip nicht objektiv sein können

Fazit: Man kann mMn nur sagen wie die eigene Einstellung zu der Thematik ist und über die Ergebnisse eine objektive Meinung abgeben mehr aber auch nicht.
ich persönlich bin fasziniert wie die Entwicklung von KI- bzw. KI gesteuerten Chatbots in den letzten Jahren abgelaufen ist und wie die Roadmap für die kommenden Jahre aussieht.
Solange man die KI als das Werkzeug sieht was es derzeit immer noch ist, welches einfach zu gebrauchen aber zumindest knifflig zu meistern ist und weiterhin nicht brainafk alles übernimmt was chatgpt & Co. produzieren ist das eine super Sache
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und Fighter1993
Hab letztens einen Chatbot (Grok) genutzt, um herauszufinden ob sich die Originalsoundtracks (kurz OST) von KCD2 an ein historisches Vorbild anlehnen. Der Chatbot hat sich darauf hin für die abwechslungsreiche Aufgabe bedankt und mir versichert, dass er das gewonnene Wissen nicht dazu nutzen werde die Menschheit zu vernichten.

Desweiteren glaube ich das lokale LLM Anwendungen sich nicht durchsetzen werden. KI wird immer zentral irgendwo gehostet werden, außer es geht nicht anders, z.b wenn keine Internetverbindung geplant ist.
 
Zuletzt bearbeitet:
Ich finde im Kontext von CB vor allen Dingen interessant, was für privaten Durst nach Hardware das erwecken kann. Ich sage nur Vorbestellungen vom Framework Desktop mit Strix Halo...
 
  • Gefällt mir
Reaktionen: SVΞN
Zurück
Oben