Gax schrieb:
Alan Turing sagte einmal: "Wenn sie erklären können wie ein Mensch, dann haben sie funktional dieselbe Intelligenz."
Mit anderen Worten. Es gibt keine Intelligenz-Simulation, weil die Simulation dann auch wieder intelligent ist.
Ein einfaches Buch erklärt einem Dinge wie ein Mensch, ist deshalb ein Buch intelligent?
Gax schrieb:
Es ist völlig egal, ob wir glauben ob eine KI ein Bewusstsein oder eine Intelligenz besitzt, ob sie eine Rolle nur spiele, oder wirklich so sei, ob sie wirklich versteht oder nur so tut... das ist total egal.
Das ist alles andere als egal. Ein intelligentes Model lernt und versteht, ein LLM rechnet auf Basis gesetzter Parameter. Die haben im Übrigen einen sehr großen Einfluss darauf, was am Ende hinten rauskommt, deswegen ist es grundsätzlich falsch, LLMs nicht als Formeln sondern als Pseudo-Wesen wahrzunehmen.
Hier mal eine typische Auflistung der Parameter, die bei einer Anfrage an die KI mitgesendet werden, und angeben, wie sie ihre Ergebnisse berechnen soll:
Es ist am Ende wirklich nur Mathe, nur halt etwas Komplexer als in der Oberstufe - aber auch nicht viel.
Gax schrieb:
Es ist vor allem für das Ergebnis egal.
Soweit gehe ich ja mit, Tatsachen sind am Ende Tatsachen.
Gax schrieb:
Wenn sich die Praxis von der Simulation nicht unterscheiden lässt, ist sie real genug.
Real genug, aber nicht das gleiche. Eine fotorealistische Zeichnung wird nie zum Foto, unabhängig davon wie gut gezeichnet es ist.
mae schrieb:
Dein Argument dafuer ist aber nicht stichhaltig; das zeigt sich schon am Mangel an Argumenten ("Es sollte offensichtlich sein").
Weil es offensichtlich ist: Wie genau soll ich dir belegen, dass eine mathematische Formel keine Intelligenz besitzt? Wenn sie das deiner Meinung nach tut, dann musst du das Belegen, nicht ich.
mae schrieb:
Allgemein denke ich, dass das, was im menschlichen Gehirn ablaeuft, auch mathematisch beschrieben werden kann, von daher ist die Existenz einer mathematischen Beschreibung kein Gegenargument.
Man kann (theoretisch) eine mathematische Annäherung für ein menschliches Gehirn aufstellen, aber niemals eine 100% korrekte, deterministische Formel. Dafür müsstest du den Zustand und die Position aller Teilchen, Wellenfunktionen, Verschränkungen usw. kennen, was physikalisch unmöglich ist.
Und selbst wenn man sagt: Ja ok, dann simulieren wir einfach ein "neues" menschliches Gehirn, ändert das trotzdem nichts. Für jede Berechnung müsstest du mit endlicher Präzision arbeiten, was unweigerlich eine Divergenz zu einem gleichartigen echten Gehirn einführt. Heißt, um alles wirklich zu 100% korrekt zu berechnen, müsstest du auch alle physikalischen Prozesse "in echt" laufen lassen - was nichts anderes als eine umständliche Umschreibung dafür ist, dass man um ein menschliches Gehirn zu simulieren, erst ein menschliches Gehirn bauen muss.
mae schrieb:
Zunaechst denke ich nicht, dass eine echte KI grundsaetzlich apokalyptisches Potential hat, solange man ihr nicht Ziele antrainiert, die den Interessen Ihrer Eigner zuwiderlaufen, und warum sollten die das tun?
Das Alignment-Problem ist ein sehr großes und ein sehr fundamentales: Das ist ja der Krux an der Sache, dass eine Maschine sich "aus Versehen" falsch verhält, obwohl mit guten Zielen trainiert. Es gibt sehr viel Inhalt dazu, das berühmteste Beispiel ist der Paperclip-Maximizer: Man sagt einer AI, dass sie uns helfen soll, mehr Büroklammern herzustellen:
"Suppose we have an AI whose only goal is to make as many paper clips as possible. The AI will realize quickly that it would be much better if there were no humans because humans might decide to switch it off. Because if humans do so, there would be fewer paper clips. Also, human bodies contain a lot of atoms that could be made into paper clips. The future that the AI would be trying to gear towards would be one in which there were a lot of paper clips but no humans."
Und es gibt auch
tiefergehende Probleme, bspw. wenn Modelle während des Trainings unentdeckte Sub-Ziele entwickeln, und diese "heimlich" ausführen.