Technologische Singularität

Tut mir leid, hab falsch gelesen :D
 
Intelligenz ist klar definiert. Situationen analysieren, speichern und abstrahieren können um bei zukünftigen problemen auf dieses wissen zurückgreifen zu können um sie zu lösen.

im ansatz - auf dem niveau von tieren - können heutige kis das schon. z.b. roboter die lernen hindernisse zu umgehen oder aus dem weg zu räumen statt dagegen zu laufen...

Selbstlernende KIs werden sicher einmal möglich sein und auch den menschen übertreffen. Man darf aber nicht den fehler machen emotionen mit intelligenz zu vergleichen. emotionen sind vielleicht menschlich, aber nicht unbedingt intelligent. in bestimmten situationen können menschen nur noch emotional und nicht mehr rational handeln, eine KI wird die situation immer abwägen und die logischste konsequenz ziehen.

Die frage ist auch lässt man der KI völlig freie hand, oder baut man sperren ein?

Ich bin der überzeugung das die KI, wenn sie völlig frei ist nach einiger zeit den menschen nur noch als parasit sehen wird und ihn bekämpft. Oder nehmen wir mal einen rettungseinsatz: ein haus brennt, es sind noch menschen eingeschlossen, die feuerwehr kann nicht mehr rein weil alles versperrt ist. jetzt haben wir einen cyborg feuerwehrmann - was wird er tun? seine eigene existenz unter die der menschen stellen und sie versuchen zu retten auch wenn er dabei draufgeht oder sich ebenfalls weigern reinzugehen um seine existenz zu schützen? Sollte die menschheit die nächsten jahrzehnte überleben werden wir sicher noch einige interessante antworten bekommen - aber erstmal müssen existentielle fragen geklärt werden wie z.b. die energiegewinnung nach atomenergie und öl.
 
Naja ich denke das ist eine Frage der Programmierung. Man darf diesen KIs natürlich auf gar keinen Fall einen eigenen Willen geben. Das wäre Selbstmord. Man müsste sie so programmieren, dass sie den 3 Robotergesetzen gehorchen.
 
@wazzup:
Ich bin mir da nicht so sicher. Hindernissen auszuweichen lernen diese KIs ja meistens nicht, sondern "lösen" das "Problem" durch "ausprobieren".
 
Dann bist du aber nicht auf dem Laufenden, Child

http://www.youtube.com/watch?v=W1czBcnX1Ww

Entferne das Geräusch der Servomotoren, verpass dem ganzen einen netten Anstrich und ein Gesicht und schon wird dir ein Haufen Leute sagen, dass das Ding bestimmt intelligent sei...
Echte Revolutionen sind immer leise ;)

Oder mit den Worten eines Youtube'lers: "Pretty soon they will be 30ft tall and carry lazer guns like in Starwars."
 
Zuletzt bearbeitet:
@wazzup
Eine Frage zu Deinem Feuerwehr-Cyborg. Würdest Du den Cyborg auch dann noch als intelligent bezeichnen, wenn er sich gemäß seiner Programmierung gar nicht frei entscheiden kann? Der Knackpunkt ist für mich die Möglichkeit es Irrtums. Nur wenn sich der Cyborg ganz real entscheiden kann zwischen a) Menschen aus dem brennenden Haus befreien oder b) Feierabend und Ölwechsel machen, kann ich ihm – je nach gewählter Variante – so etwas wie eine vorhandene oder fehlende Intelligenz bescheinigen. Wenn der Cyborg darauf programmiert ist, um jeden Preis die Menschen zu retten, braucht er keine Intelligenz mehr. Sie wäre sogar störend.

Du hast selbst eine Definition von Intelligenz formuliert. Demnach müsste ein intelligenter Cyborg die ihm zur Verfügung stehenden Optionen erkennen und sich allein aufgrund seiner Intelligenz für a) oder b) entscheiden. Vielleicht würde er sich gegen die Rettung entscheiden und dies – zumindest aus seiner Sicht – gut begründen können. Dann würde er zwar als Feuerwehr-Cyborg wenig taugen, aber er wäre immerhin intelligent.
 
Solche Geschichten wie dieser künstliche Feuerwehrmann oder die Roboter aus 'iRobot' sind eigentlich nur die erste Stufe. Philosophisch gesehen, erschaffen wir uns da Wesen, die eine Reihe von klar definierten Aufgaben haben und statten sie mit der nötigen KI dafür aus.
Angenommen, dieser Prozess verläuft so schnell wie die Entwicklung des Computers, dann wäre wohl bis spätestens 2070 mit den ersten Einheiten zu rechnen, die etwa so weit entwickelt sind, wie ein aktuelles Betriebssystem. Das heißt Eigenwartung, Selbstdiagnose, Autoupdates, Vernetzung, Vielseitigkeit, Kompabilität und nicht zuletzt Design. Vorausgesetzt natürlich, dass die Menschheit sich für sowas interessiert und das ganze bezahlbar ist - ich warte übrigens immer noch darauf, dass die ISS fertig gestellt wird.

Doch der große Unterschied zu unserer Existenz ist doch, dass wir da eine Maschine erschaffen haben, die einen Zweck erfüllt. Kein Mensch baut eine Maschine, die zweck-los ist, sie dient immer einem höheren Ziel.
Und auch wenn es jetzt paradox klingt:
Solange eine intelligente Maschine nur einen klar abegrenzten Spielraum oder einen genau definierten Zweck hat (etwa der Feuerwehrmann), solange bezeichne ich sie nicht als intelligent. Der Mensch sucht ständig den Sinn des Lebens, und damit stellen wir unserer Intelligenz immer neue Herausforderungen. Eine Maschine, die zwar denken kann, aber wegen eines definierten Zwecks in ihrer Entwicklung sehr statisch existiert, braucht sich gar nicht weiterentwickeln.
Menschen die Selbstmord begehen, weil sie keinen Sinn mehr in ihrem Leben sehen, gehen hier auf ihre Weise rational vor. Ebenso halte ich es für möglich, dass eine nutzlose, denkende Maschine die gleiche Schlussfolgerung zieht und sich selbst löscht.

Möglicherweise müssten wir daher an dieser Stelle Gott spielen und der KI einen Anreiz zur Selbstverbesserung geben, erst dann ist dieses Wesen intelligent, weil vor den gleichen Fragen steht wie wir. Erst dann schaffen wir die technologische Singularität.
 
Das entspricht dem, was ich anzumerken versucht habe. Der Cyborg ist eine Maschine mit einem zuvor abgesteckten Aufgabenfeld, das ihm Menschen zugewiesen haben. Seine Fähigkeiten zur Bewältigung dieser Aufgaben machen (abgesehen vom Materialwert) seinen eigentlichen Wert aus.

Im Gegensatz dazu hat der Mensch seine Menschenwürde. Der Wert eines Menschen definiert sich durch seine bloße Existenz und ist frei von Nutzenüberlegungen, wie sie beim Cyborg angestellt werden.

Der Mensch entscheidet im Laufe seines Lebens, welchen Sinn er seinem Leben geben will und worin er seine Berufung sieht. Der Cyborg ist von Anfang bis Ende seiner Existenz ein Feuerwehrmann. Er kann (und will) nie etwas anderes sein.

Ich möchte auch keinen allzu klugen Cyborg als Chirurgen haben, der von jetzt auf gleich auf die Idee kommt, sich selbst zu verwirklichen. Aus Eigeninteresse könnte er inmitten einer Operation alles stehen und liegen lassen, um in den nächsten Flieger zu steigen, damit er die nächste Sonnenfinsternis nicht verpasst.
 
Tja, darüber streiten Hirnforscher sowie Philosophen. Du gehst von einem freien Willen aus und daher von frei getroffenen Entscheidungen. Ginge es nach diesem Herrn (und einigen anderen) ist der freie Wille nur eine Illusion und sind Entscheidungsprozesse und -findungen das Resultat neuronaler Erregungsmuster, die auf gespeichertes Wissen und gespeicherte Erfahrungen zurückgreifen.
Füttert man nun eine künstliche Intelligenz mit ausreichend Wissen und Erfahrung und gibt ihm die zur Entscheidungsfindung nötigen Parameter mit, gibt man ihm dann die Möglichkeit, zu "lernen" -selbstlernende Algorithmen sind keine Fiktion- hat man dann nicht ein dem Menschen sehr ähnliches (ich traue mich nicht "gleiches" zu sagen) Wesen geschaffen?
 
Zuletzt bearbeitet:
Füttert man nun eine künstliche Intelligenz mit ausreichend Wissen und Erfahrung und gibt ihm die zur Entscheidungsfindung nötigen Parameter mit, gibt man ihm dann die Möglichkeit, zu "lernen" -selbstlernende Algorithmen sind keine Fiktion- hat man dann nicht ein dem Menschen sehr ähnliches (ich traue mich nicht "gleiches" zu sagen) Wesen geschaffen?
Ja, ich denke schon. Doch so leicht ist es wirklich nicht. Die Forschung auf dem Feld der künstlichen Intelligenz macht zwar Fortschritte, aber ausschließlich auf dem Gebiet der schwachen KI (konkrete Problemstellungen, etwa Internetsuchmaschinen & Übersetzungssoftware), die starke KI die als eine Kopie der menschlichen Intelligenz betrachtet wird, ist immer noch bloße Vision.

Es gibt übrigens seit 1991 den Turing-Test, bei dem die Versuchsperson über Tastatur und Bildschirm Kontakt hat zu einer Maschine und einem Menschen. Dabei soll sie herausfinden, wer von beiden die KI und wer der echte Mensch ist. Ist der Versuchsperson das nach längerer Zeit immer noch nicht klar, hat die Maschine gewonnen.

Wann das soweit ist, lässt sich sehr schwer sagen. Es scheitert häufig an Details.
 
Der Cyborg ist von Anfang bis Ende seiner Existenz ein Feuerwehrmann. Er kann (und will) nie etwas anderes sein.

Nein Keshkau, der Cyborg wird nie! ein Feuerwehrmann.

Erstens ist die Tätigkeit von Feuerwehrleuten(es gibt nämlich auch Frauen) niemal durch einen Cyborg zu ersetzen, schon deshalb weil die Tätigkeiten viel zu komplex und vielfältig sind.
Zweitens wird in der nahen Zukunft keine Kommune in der Lage sein für solche Anschaffungen Geld bereitzustellen

Und Drittens lass ich mir meinen Job bestimmt nicht von einer Maschine wegnehmen die nicht mal bis 3 zählen kann lol.
 
Es scheitert an der Unmenge der Details, die das menschliche Gehirn intern autonom in der Lage ist, zu verarbeiten, die aber das Bewustsein -also der Mensch- extern nicht ungefiltert an eine Maschine weitergeben kann. Filterung bedeutet aber, dass (entscheidende) Informationen fehlen.
 
Ich denke primär geht es nicht darum, ob euch jetzt ein Cyborg euren Job klauen würde. Denn wenn es so wäre, dann müsste sowieso kein Mensch mehr auf der Erde arbeiten, da alles durch Cyborgs besetzt werden könnte ;)

Ich denke eher, solche KIs wären in der Lage durch die Selbst"weiterentwicklung", höhere für uns unbegreifliche Fragen zu beantworten... neue Rohstoffe zu finden, neue Erfindungen...und und und

Man könnte die KI vielleicht, wenn sie sich genug weiterentwickelt hat, sogar nach dem Sinn des Lebens fragen ;) Das ist das Zeil durch die technologische Singularität

1.) Den Sinn des Lebens verstehen
2.) Fragen beantworten können, die man sonst nie hätte können, da ein menschliches Gehirn dazu nicht in der Lage ist
3.) Ewiges Leben zu erlangen (Omega Punkt Theorie, gleichzusetzen mit Gott)
 
Das ist jetzt nicht Dein Ernst, oder? Ich meine, wir haben hier schon ein oder zwei Threads, die sich mit der Frage nach dem Sinn des Lebens beschäftigen. Aber ich käme nie und nimmer auf die Idee, die Beschäftigung mit dieser Frage an eine "Maschine" zu delegieren.

Das widerspräche meinem Weltbild doch ganz gewaltig. Ich bin gespannt, wie das die (Hobby-)Philosophen hier im Forum sehen.
 
Ich glaube schon, dass es möglich ist, eine höherentwickelte Intelligenz als unser Gehirn je erreichen würde zu entwickeln.
Klar ein Mensch entscheidet oft auch aus dem Bauch oder (Ur-) Instinkten heraus. Ich sehe allerdings auch hier keine Unmöglichkeit dies einer Maschine beizubringen.
Dies ist zum Teil auch die Summe der Erfahrungen und der Triebe (zb. Überlebenstrieb), welche man einer Maschine durchaus als Grundausstattung beibringen/einhauchen kann, alles weitere durch Selbsterfahrung.
Ein Kleinkind kommt auch recht neutral auf die Welt, unterscheidet nicht zwischen schwarz und weiß, würde sogar blind über die Strasse rennen. Die Umwelt und Selbsterfahrung prägt es zum großen Teil.

Vielleicht noch nicht aktuell, aber zb. in der Robotik und neuronalen Netzen, als auch auf dem Gebiet Biomechanik sind wir dem schon erschreckend näher gekommen.
Alleine am Beispiel Internet sehen wir bereits wieviel Kontrolle das Individuum oder wir über die Technik noch haben. Klar noch haben wir sie, aber vorhersehbar war diese Entwicklung am Anfang für die wenigsten.

Eine schrankenlose hochentwickelte KI wird irgendwann zu dem Schluss kommen, dass die menschliche Existenz irrelevant, unvollkommen und sogar schädlich für diesen Planeten sein kann. Der fortschrittliche Mensch steht mit seiner Umwelt in keiner echten Symbiose mehr.

Eine derartige KI würde sich weit über uns einstufen und entsprechend verhalten. Es wäre ähnlich, wie unser Verhältnis zu von uns aus gesehen niederen Lebewesen, wie zb. Ameisen.
Wer hat nicht schonmal ein Insekt bewusst oder unbewusst zertreten, ohne Emotion, Moral und Reue.
Ab einem gewissen Punkt bräuchte sie uns überhaupt nicht mehr. Aus welchem Grund sollte sie uns dann noch dienlich sein?
Weil wir mal ihr "Schöpfer" waren? Was ist dann bei der 2., 3... 100en Generation, welche in immer kürzeren Zeiträumen von ihren Vorgängern, den Maschinen selbst weiterentwickelt wurde?

Es hängt einzig von der Frage ab, ob wir dies zulassen wollen und stets 100%-ig kontrollieren können. Und ob das spätere Generationen (Mensch) noch genauso sehen.
 
Unwahrscheinlich. Eher würde sie uns so behandeln, wie wir niedere Kreaturen ansehen. Entweder wir machen Haustiere draus, lassen sie in freier Wildbahn ihr Ding drehen oder sperren sie in Zoos. Aber eine Intelligenz muss eine Intelligenz doch nicht unbedingt bedrohen oder auslöschen, nur weil das jetzt die höchsten Einschaltquoten im TV bringt. Wir haben halt keine Erfahrung mit Lebewesen, die uns geistig voraus sind.
Und selbst wenn diese KI uns nicht mehr braucht, das Leben und Sterben innerhalb einer Evolution gilt auch für uns ;)
 
Zurück
Oben