S.Kara schrieb:
Um mal bei deinem Beispiel mit der Kuh zu bleiben: Zeigt man einem Menschen - ohne weitere Kenntnisse - ein Bild mit einer Kuh in der Wüste und sagt ihm nur "Kuh"
Wenn Du nicht verstehst, was danach passiert, dann kann ich Dir leider auch nicht helfen. Genau DAS ist eben NICHT "lernen" und nicht ansatzweise "Erfahrung". Danach fängt es erst an!
Zeigst du ihm viele Bilder von Kühen mit unterschiedlichen Hintergründen wird er lernen dass das was gleich bleibt die Kuh sein muss. Das funktioniert bei KIs aber ebenfalls.
Du hast wirklich nicht den Hauch eines Schimmers, wie Menschen lernen. Du zeigst KEINEM EINZIGEN KIND dutzende oder gar hunderte oder gar Millionen von Bildern von Kühen!
Es ist ja auch nicht schlimm dass Du vom menschlichen Lernen und wie unser Gehirn ansatzweise funktioniert, wenig weisst. Hast Du vermutlich nie intensiv drüber nachgedacht. Aber ganz ehrlich: Wieso fühlst Du Dich berufen, darüber zu DISKUTIEREN?
Wenn Du ... Achtung Kalauer... LERNEN möchtest, wie Menschen lernen und wieso dies völlig anders ist, als LLMs "lernen"... dann sag Bescheid. Kann ich nochmal versuchen, einen langen Text zu schreiben.
Und nochmal: Es IST völlig anders! Aktuelle LLM-Maschinen machen KEINE "Erfahrung" (zumindest nicht im menschlichen Sinne).
Der Unterschied zwischen Mensch und Computer ist die Rechenleistung
Das ist einer von mehreren, wenn nicht gar vielen Unterschieden. Und selbst hier bist Du bereits falsch unterwegs.
Ist dieses Hindernis überwunden werden Roboter in kürzester Zeit 99% aller Menschlichen Fähigkeiten übertreffen.
Es gibt nicht "die Rechenleistung" sondern auch hier verschiedene Versionen. In bestimmten Bereichen ist die Rechenleistung der Maschinenbereits WEIT HÖHER, als unsere. Also genau das Gegenteil, was Du anzunehmen scheinst. Und die Menge an Daten, auf die diese IMMENSE Rechenleistung Zugriff hat, übertrifft unsere Daten pro Gehirn um mehrere Grössenordnungen.
Jeder Mensch denkt dass er gewisse Dinge weiß, obwohl dem nicht so ist. Man sagt ja immer so schön "Irren ist menschlicht".
Wäre schön, wenn Du dies mal verinnerlichst. Gerade Deine letzten Sätze waren ziemlich falsch.
Aktuell funktionieren LLMs so VOLLKOMMEN anders, als Menschen... das scheint Dir nicht ansatzweise klar zu sein. Was - nochmal - völlig OK ist. Aber dass Du denkst, Menschen seien ja eigentlich auch ne Art LLM... uhm... das macht Diskussion etwas anstrengend.
calluna schrieb:
Und trotzdem ist das nicht intelligente System irgendwie „intelligenter“ als viele Menschen bei immer mehr Aufgaben.
Fähiger. Nicht intelligenter. Der Unterschied ist nicht direkt offensichtlich. Aber wirklich wichtig. Ein Auto ist auch fähiger in der Geschwindigkeit, als ein Mensch. Anderes Beispiel: Wikipedia ist fähiger als jeder Mensch bzgl. Datenmenge des Wissens. Aber kein bisschen intelligent.
Für die praktischen Resultate spielt es am Ende keine Rolle, ob es in einem metaphysischen Sinne intelligent ist oder nicht… es zählt nur das Ergebnis.
Vollkommen richtig und ein wirklich wichtiger Punkt: Die Ergebnisse sind zum Teil haarsträubend schlecht von LLMS für die unfassbar riesige Menge an Ressourcen, die unsere TechBros da reinstecken! Und für die unfassbar riesige Menge an Daten, die wir dort verwenden.
Ich bin übrigens kein bisschen GEGEN LLM-Einsätze in vielen hochspezialisierten Bereichen. Und wer weiss, was mit zusätzlichen Entwicklungen im Bereich neuronaler Netze und LLMs dann in Jahren passiert - irgendwann kann der Sprung zu Intelligenz ja passieren. Aber mit der aktuellen Technik wahrscheinlich eher nicht. Was ich auch gar nicht schlimm finde. Das aktuelle Verhalten der Tech-Konzerne... das finde ich dagegen katastrophal.
Davon abgesehen ist deine Definition von Intelligenz als „kontextualisiertes Wissen“ nicht der Konsens und spiegelt sich auch nicht in Intelligenztests für Menschen wieder.
Denn da geht es viel um die (allgemeine) Leistungsfähigkeit der Mustererkennung einer Person.
Ich bin mir sicher, jede Klausur und erst Recht jede Doktorarbeit lässt sich auf Mustererkennung reduzieren.
Wait...
Mustererkennung ist natürlich TEIL von kontextualisiertem Wissen.
Kontextualisiertes Wissen ist selbstverständlich nicht ansatzweise ausreichend, um "Intelligenz" zu definieren. Das ist eine gar nicht so leicht und komplizierte Sache.
Die grösste Schwierigkeit, die wir haben werden, ist Intelligenz losgelöst von einem individuellen Körper zu erkennen, zumal unsere menschlichen Körper untereinander in ständigem Kontakt und ständiger Kommunikation sind und dies einer von diversen essentiellen Gründen für unsere Intelligenz ist.
Daher ist "Lernen" von LLMs ja auch so völlig anders und daher fehlen bestimmte Erfahrungen, die wir haben, vollkommen. Ich bin durchaus gespannt, ob eine Maschine überhaupt jemals "intelligent" werden kann, ohne einen Maschinenkörper zu haben, mit dem sie reale, haptische Erfahrungen mit der realen Welt machen kann.
Das liegt aber auch daran, dass Begriffsbildung bei Menschen hauptsächlich an Absichten orientiert ist.
Und diese sind... Achtung, Achtung... KONTEXT-bezogen. Wobei ich nichtmal wirklich weiss, ob das "hauptsächlich" dort reinpasst. Aber es ist sicher eines der vielen, wichtigen Elemente vom Menschsein, dass wir schon früh als Babies so etwas wie Absichten entwickeln. Das fängt aber ja schon bei den Grundbedürfnissen an und hört beim Bedürfnis von Zuneigung noch lange nicht auf und wird schnell bei Kleinkindern dann wundervoll komplex.