SheepShaver schrieb:
Prinzipiell gibt es aber keinen Prozess im Gehirn, den man nicht irgendwann einmal aus Prinzip nicht simulieren koennen sollte.
Es geht auch nicht um die Dimension des "Was?", sondern um das "Wie?". Die Informationsverarbeitung in Computern ist vollkommen vorhersagbar und komplett deterministisch. Über die
Informationsverarbeitung im Gehirn weiß man dagegen noch nicht so viel:
Gespräche mit Neurophysiologen und Neurobiologen [machen deutlich], daß über die Informationsverarbeitung im menschlichen Gehirn sehr viel weniger gesichertes Wissen vorliegt, als in der typischen PopulärLiteratur suggeriert wird.
Aktuelle LLM sind also vollständig eigenständige, auf Algorithmen basierende, Systeme, die im Bereich der Sprache einen guten Eindruck menschlicher Kommunikation vermitteln können, deren Funktionsweise aber nicht einmal in Ansätzen etwas mit ihrem Vorbild zu tun hätte. Ein LLM ist darauf optimiert, für einen Menschen verständliche Symbole (und ggf. Töne) auszugeben. Der Weg dahin ist aber ein anderer als der im Gehirn ablaufende. Dass es so aussieht wie menschliches Verhalten liegt einfach daran, dass das LLM
von Menschen darauf hin optimiert wurde. Das ist aber keine Eigenleistung der KI. Überlass ChatGPT sich selbst und es tut - nichts.
Unterstellen wir mal, der neue Ansatz würde funktionieren, physikalische Gesetze als Grundlage zu nehmen, um irgendeine Art von Verhalten zu simulieren, bspw. Handbewegungen für Roboter. Dann empfehle ich einfach mal das Gedankenexperiment im oben verlinkten Artikel (Konklusion, S. 17f.) zu lesen. Fazit: Selbst bei einer von Menschen konstruierten Maschine kann nur durch äußere Messungen nichts konkretes über den inneren Zustand ausgesagt werden.
Im Vergleich zu diesem Gedankenexperiment ist das Problem der Entschlüsselung der Arbeitsweise des menschlichen Gehirns ungleich größer.
Fazit: Eine aktuelle KI (und auch die kommenden KI) werden immer nur das Endergebnis (Sprache, Laute, Bewegungen) von organisch gewachsenen Systemen simulieren können, sie sind aber niemals eine Simulation des zugrundeliegenden Verhaltens. Wenn dir also der Output reicht, ist das ok. Aber dann hast du eben vollkommen determinierte Systeme, die keinerlei Intuition, Intelligenz oder Verstand haben, sondern nur Roboter.
Praktisches Beispiel: Du kannst mit einem heutigen Computer, viel Arbeit, vielen Datenbanken und viel Zeit, die Bewegung der Hand simulieren und hast dabei aber gar nichts über die inneren Abläufe einer richtigen Hand gelernt. Wenn du aber wissen möchtest,
warum dir deine Freundin oder dein Freund eine Ohrfeige gegeben hat, hast du intuitiv bestimmt sofort eine Idee, du würdest den konkreten Ablauf innerhalb des biologischen Systems mit einem Computer aber nie in absehbarer Zeit nachvollziehen können.
Der Artikel endet übrigens nicht pessimistisch:
Aus dem vermeintlichen Gegensatz zwischen unseren Erkenntnissen über das menschliche Gehirn und dem Entwurf von leistungsfähigen künstlichen Rechnern entsteht also bei genauerem Hinschauen eine Symbiose von zwei sehr verschiedenartigen Wissensbereichen [...]
Man muss halt akzeptieren, dass ein Computer eine für sich eigenständig laufende Maschine ist und kein Gehirn. Was du also Simulation nennst, ist in Wirklichkeit eigenständiges Verhalten eines Computers - was toll ist! Nur ist es eben komplett determiniert, selbst wenn es hinreichend komplex ist. Das Gehirn funktioniert
anders. Wie sehr anders, wird man immer besser erforschen können, du wirst aber kein Gehirn mit einem Computer nachbauen können.
Und um den Kreis zu schließen: LeCun ist vielleicht auch ein guter Naturwissenschaftler, vor allem versteht er aber etwas von Marketing. Wer für die Idee "Ich baue mit einem Physikbuch eine KI" eine Milliarde in die Hand gedrückt bekommt, sitzt voll auf dem Hypetrain und wir werden sehen, welches Ergebnis er liefern wird, wenn ihn die Blase nicht vorher einholt.