angel29.01 schrieb:
Eine starke KI wäre ja auch wirklich intelligent, und zwar richtig.
Nicht nur eine KI die Intelligenz simuliert und dann zu logischen, aber nicht schönen Schlussfolgerungen kommt, wie z.B. Viki in iRobot.
Sie könnte abstrahieren was Recht und Unrecht ist und nicht nur auf Logik beharren.
Dein Verständnis von Recht und Unrecht basiert aber auf Moral, nicht auf Logik.
Meiner Meinung nach würde eine Intelligenz, wie du sie beschreibst, das Töten von Behinderten beispielsweise für eine gute Idee halten. Wie es die Spartaner und ich glaube auch noch die Sachsen, bevor sie zum Christentum gezwungen wurden, getan haben. Einfach so, weil Behinderte grundsätzlich weniger effizient/effektiv sind - und zudem noch das Risiko bringen, "schlechtes" Erbgut weiter zu verbreiten.
angel29.01 schrieb:
Übrigens glaube ich nicht, dass eine grundlegend Menschen freundliche Programmierung ihre Unabhängigkeit einschränkt. Solange diese Menschen freundliche Programmierung in der Lage ist sich selbst weiter zu entwickeln, müssen wir nicht eingreifen.
Und was ist "menschenfreundlich"? Natürlich ist eine moralisch/politisch korrekte Programmierung eine Einschränkung der Unabhängigkeit einer künstlichen Intelligenz!
Und selbst wenn man das macht: Moral hat sich im Laufe der Menschheitsgeschichte extrem gewandelt. Wer sagt, dass ausgerechnet eine sich selbst rasant weiterentwickelnde Maschine beschließt, bei den christlichen Wertvorstellungen zu bleiben? Warum sollte die Maschine nicht aus den Statistiken schließen, dass der Menschheit langfristig damit besser gedient ist, wenn man z.B. alle HIV-Infizierten sofort tötet, anstatt an der christlichen Idee festzuhalten? Und wieso sollte eine Maschine, die intelligenter ist als jeder Mensch, etwas von Demokratie halten, und nicht eine auf Logik basierende Dikatur durch sich selbst vorziehen?
angel29.01 schrieb:
Zur Perfektion: Ich würde sagen, die liegt immer Auge des Betrachters und wenn eine KI intelligenter ist, so wird sie vielleicht Dinge zu unserem eigenen Wohl initiieren, die wir nicht verstehen. Die wird anfangs vielleicht sogar ablehnen werden.
Ein Tierarzt fügt Tieren manchmal Schmerzen zu, aber meistens wegen eines guten Zwecks, wie z.B. Krankheiten heilen oder Operationen. Das Tier versteht es aber nicht, aus seinem beschränkten Blickfeld, aus der zu niedrigen Intelligenz.
Und vielleicht wird die KI Dinge tun, zu unserem Wohl, die wir nicht verstehen.
Da haben wir es ja. Siehe meine Beispiele.
Du schreibst von "purer Intelligenz" und meinst damit eine Intelligenz, der unser subjektives, sich ständig änderndes Verständnis von Ethik zu Grunde liegt.
Im Grunde ist deine Vision der idealen KI schon nicht mehr frei, wenn man ihr überhaupt einprogrammiert, dem Wohle der Menschheit zu dienen - selbst wenn man ihr keinen Weg bzw. Moral vorgibt. Eine wirklich freie Intelligenz käme vermutlich tatsächlich zu dem Entschluss... wie Skynet. Denn was für einen logischen Zweck soll Leben an sich für eine Maschine haben? Oder noch besser: Welchen Zweck würde so eine Maschine in ihrer eigenen Existenz sehen?
Das wäre im Prinzip ein geniales Wesen mit Bewusstsein aber ohne jede Moral, dem im Gegensatz zum Mensch auch die Natur bzw. jedes Leben egal wäre, da es davon nicht abhängig wäre. Warum solte so ein Ding also nicht wirklich einfach die nukleare Auslöschung allen Lebens anstreben, um danach selber nur noch aus den eigenen Fortbestand zu setzen?
Das ist echt irre, wenn man darüber nachdenkt.: So eine Form der Intelligenz könnte sich immerhin im ganzen Universum ausbreiten - Energie ist überall.
Dass uns bisher keine Maschinenwesen ausgelöscht haben spricht also entweder dafür, dass man wirklich kein (intelligenteres) Hirn inklusive Bewusstsein nachbauen kann, oder dafür, dass wir tatsächlich alleine im Universum sind. Oder... wir haben einfach bisher Glück...
Da kann man nur noch aus
The Sarah Connor Chronicles und dier dortigen Anspielung auf den ersten Atombombentest zitieren:
"Now we're all sons of bit**es" 