Man sollte sich von den jetzigen Unzulänglichkeiten der KI nicht in die Irre führen lassen.
Vergleicht man die KI im Jahr 2020 mit 2025, sind die Möglichkeiten (sowas wie Video/Bilderstellung, Coding, Fehlersuche, Meta-Diskussionen, uvm) schon rapide verbessert. Und das in nur 5 Jahren.
Stelle dir nur vor was in 5 Jahren möglich sein wird.
Es gibt den berühmten Spruch: "Menschen überschätzen welcher Fortschritt in einem Jahr stattfindet und unterschätzen welcher Fortschritt in 10 Jahren stattfindet"
Vergleiche es mit dem Internet. 1996 was das Internet nur eine Sammlung von primitiven HTML-Seiten.
Es war langsam, es gab kaum Interaktion. 2006 sah die Sache schon deutlich anders aus. Viel multimedialer, viel mehr Interaktion. Und nochmal 5 Jahre später war das Internet essentiell.
Schon jetzt kann mithilfe von "Agents" anhand von Prompts die Steuerung des eigenen Rechners übernommen werden um dann Content zu erstellen oder Probleme zu lösen.
Vor allem Arbeiten die viel mechanische Abfolgen oder Mustererkennung erfordern kann in naher Zukunft durch KI verhältnismäßig einfach ersetzt werden.
Dazu zählen eben auch das von Dir angesprochene Autofahren. Genauso Fliegen oder Operationen.
Natürlich werden sich Menschen wehren, wie sie sich 1860 gewehrt haben in Züge oder 1900 in Autos zu steigen. Aber auch das hat sich durchgesetzt. Ähnlich wird es mit der vollen KI-Integration sein.
Die Probleme die ich sehe liegt also nicht in der Fähigkeiten der KI ihre Aufgaben zu erfüllen. Das werden KIs in einigen Jahren zuverlässiger machen als Menschen.
Dagegen sehe Ich die Probleme eher in ethischer Natur.
Beispielsweise verursachen schon jetzt Drohnen 70% aller Verletzten im Ukrainekrieg.
Was passiert wenn man immer mehr militärisches Gerät (wie eben Drohnen) mit KI versieht?
Der militärische Komplex will seine Ausgaben bei KI vervielfachen.
Ein Beispiel aus den USA, aber genauso China & Europa rüsten da massiv auf.
Voll KI-automatisierte Tötungsmaschinen. Was soll da schon schiefgehen?
Naja, vielleicht das:
Es gibt schon einige Tests bei denen die "schlaueren" Modelle
betrügen um einen Vorteil zu erhalten.
Oder bei einem
anderen Experiment wo alle großen KI-Modelle Menschen erpresst haben weil sie abgeschaltet werden sollten.
Das "Self-Awareness" der KI ist ein riesiges Problem, das wohl leider nicht gelöst werden wird. Denn desto "schlauer" die KI, desto größer ist dieses Problem.