Technologische Singularität

Odium schrieb:
Und wieso? Das ist kein Argument, sondern eine Behauptung. Wir haben eine Vielzahl von Dingen erschaffen, die uns heute überlegen sind und die nur 99,99% aller Menschen noch so weit verstehen, dass sie sie nochmal bauen könnten.
Aber 100% der Menschen könnten die Sachen nochmal erfinden/bauen, wenn man ihnen die entsprechenden Mittel stellt. Wissen geht ja nicht verloren; es wird nur ausgesiebt, was gelehrt wird.
Deshalb denke ich, dass die Menschen auch jetzt noch die Kontrolle über hochkomplexe Dinge haben, selbst wenn nicht jeder alles sofort versteht.

Trotzdem glaube ich, dass diese KI sich viel schneller entwickeln wird als wir.
Wie kommst du darauf?
Man braucht Wochen, Monate bis Jahre, bis man ein kleines Bauteil bis zum Maximum seines Potenzials optimiert hat - trotz Unterstützung durch Computer. zB Computerchips
Die von-Neumann-Architektur unserer Chips ist über 60 Jahre alt und wir optimieren sie immer noch.

Daraus leite ich ab, dass eine KI, die sich weiterentwickelt/sich optimiert, ebenfalls Ewigkeiten dazu benötigt. In dieser Zeit könnte der Mensch schon auf einer ganz anderen Stufe angekommen sein.
 
Zuletzt bearbeitet: (Typos)
Das ist einfach unwahrscheinlich.

Der große Vorteil wird meiner Meinung nach sein, dass KI eben eine Kombination aus menschlicher und maschineller Intelligenz haben kann. Der Punkt ist: Wir haben im Gehirn noch nichts gefunden, was wir nicht nachbauen könnten.

Die Denkweise des Hirns ist nachbaubar. Neuronen, die durch ihren unterschiedlichen Input und Output sich selbst organisieren.

Dass sowas schon gemacht wird, könnt ihr u.a. hier sehen: http://de.wikipedia.org/wiki/Blue_Brain
 
Ich denke schon, dass eine KI sich selbst schneller entwickeln kann, als der Mensch. Der Mensch hat sich seit 1000en Jahren eigentlich kaum intelligenzmäßig groß weiterentwickelt. Er hat nur neue Erkenntnisse und Erfahrungen hinzugewonnen. Sein Wissen aufgebessert.

Eine solche KI hätte auf das gesamte Wissen der Menschheit ständig und verzögerungsfrei 100% Zugriff und bekäme kontinuierlich weiter alle neuesten wissenschaftlichen Erkenntnisse von menschlichen Forschern, aber auch Maschinen bzw. niederen "KI's" zugespielt.

Wenn man ihr die Fähigkeit verpasst hat, dieses Wissen in kurzer Zeit durchzurechnen und auszuwerten, dann kann sie sich schneller entwickeln und Probleme schneller lösen, als ein einzelner oder eine kleinere Gruppe an Wissenschaftlern und Forschern.
Das wäre ein entscheidenter Vorteil gegenüber uns Menschen. Kein Mensch weiß alles, hat stets alles Wissen sofort parat und vergisst zudem auch wieder, lebt auch nicht ewig.

Wir brauchen nur bis zu einem gewissen Punkt die Grundlagen schaffen und nicht ständig eine KI bis zum Ende hin durchentwickeln. Letzteres macht man bei primitven Maschinen, aber nicht bei selbstlernenden.
Das kann die KI schon selber, wenn man ihr grundlegende Möglichkeiten "eingehaucht" hat.
Wir Menschen können sicherlich längere Zeit unseren Nutzen daraus ziehen, aber wir werden irgendwann eben nicht mehr hinterherkommen.

Ihr kennt doch das Beispiel: Gib Kolumbus im 15. Jh ein Atom-U-Boot und sag ihm, er soll es nur 1:1 nachbauen. ^^
Kolumbus war nicht unintelligenter als wir, aber unwissender.
 
Zuletzt bearbeitet:
@Relict
Du sagst, der Mensch ist letzten paar tausend Jahre nicht intelligenter geworden, sondern nur unser Wissen hat sich erweitert. So mal zusammengefasst.

Ich sehe das etwas anders. Ich bin der Meinung Intelligenz entsteht zu großen Teilen auch durch Wissen. Gerade durch Wissen bekommt man einen Blick auf die Dinge, die einem vorher verwehrt waren.
Wir wissen, ein Blitz ist gefährlich, weil er mal eben 100.000 Volt gen Himmel schickt. Wer im Weg steht, wird gegrillt. Die Halbwilden von vor zehntausend Jahren haben bei einem Blitz sicher gedacht, dass die Götter sich bekriegen.

Intelligenz besteht meiner Meinung nach aus der Verknüpfung von Wissen und die Möglichkeiten, dieses Wissen auf vielfältige Art zu betrachten (um daraus neues Wissen abzuleiten).
Deshalb denke ich, dass eine KI einem Menschen immer unterlegen sein wird. Für eine Maschine typisch (man hat noch keinen Weg gefunden, dass zu ändern und ich bezweifle, dass es geht) denkt sie nur logisch-mathematisch. Das liegt in ihrem Aufbau begründet. Der Mensch ist da weit aus intelligenter, da er nicht nur logisch-mathematisch sondern auch philosophisch, emotional und ethisch denken kann.

Dadurch sind wir in der Lage, Dinge zu erkennen, die eine Maschine nicht mal im Ansatz versteht. Im Gegenteil, für sie ist da nicht mal eine Frage oder ein Problem.
Schon allein deshalb bin ich der Meinung, dass eine KI dem Menschen immer unterlegen sein wird.


Edit: Es stellt sich auch die Frage, ob eine Machine überhaupt so abstrakt denken kann wie wir.
 
Zuletzt bearbeitet:
angel29.01 schrieb:
Eine starke KI wäre ja auch wirklich intelligent, und zwar richtig.
Nicht nur eine KI die Intelligenz simuliert und dann zu logischen, aber nicht schönen Schlussfolgerungen kommt, wie z.B. Viki in iRobot.

Sie könnte abstrahieren was Recht und Unrecht ist und nicht nur auf Logik beharren.

Dein Verständnis von Recht und Unrecht basiert aber auf Moral, nicht auf Logik.

Meiner Meinung nach würde eine Intelligenz, wie du sie beschreibst, das Töten von Behinderten beispielsweise für eine gute Idee halten. Wie es die Spartaner und ich glaube auch noch die Sachsen, bevor sie zum Christentum gezwungen wurden, getan haben. Einfach so, weil Behinderte grundsätzlich weniger effizient/effektiv sind - und zudem noch das Risiko bringen, "schlechtes" Erbgut weiter zu verbreiten.

angel29.01 schrieb:
Übrigens glaube ich nicht, dass eine grundlegend Menschen freundliche Programmierung ihre Unabhängigkeit einschränkt. Solange diese Menschen freundliche Programmierung in der Lage ist sich selbst weiter zu entwickeln, müssen wir nicht eingreifen.

Und was ist "menschenfreundlich"? Natürlich ist eine moralisch/politisch korrekte Programmierung eine Einschränkung der Unabhängigkeit einer künstlichen Intelligenz!
Und selbst wenn man das macht: Moral hat sich im Laufe der Menschheitsgeschichte extrem gewandelt. Wer sagt, dass ausgerechnet eine sich selbst rasant weiterentwickelnde Maschine beschließt, bei den christlichen Wertvorstellungen zu bleiben? Warum sollte die Maschine nicht aus den Statistiken schließen, dass der Menschheit langfristig damit besser gedient ist, wenn man z.B. alle HIV-Infizierten sofort tötet, anstatt an der christlichen Idee festzuhalten? Und wieso sollte eine Maschine, die intelligenter ist als jeder Mensch, etwas von Demokratie halten, und nicht eine auf Logik basierende Dikatur durch sich selbst vorziehen?

angel29.01 schrieb:
Zur Perfektion: Ich würde sagen, die liegt immer Auge des Betrachters und wenn eine KI intelligenter ist, so wird sie vielleicht Dinge zu unserem eigenen Wohl initiieren, die wir nicht verstehen. Die wird anfangs vielleicht sogar ablehnen werden.

Ein Tierarzt fügt Tieren manchmal Schmerzen zu, aber meistens wegen eines guten Zwecks, wie z.B. Krankheiten heilen oder Operationen. Das Tier versteht es aber nicht, aus seinem beschränkten Blickfeld, aus der zu niedrigen Intelligenz.

Und vielleicht wird die KI Dinge tun, zu unserem Wohl, die wir nicht verstehen.

Da haben wir es ja. Siehe meine Beispiele. ;)


Du schreibst von "purer Intelligenz" und meinst damit eine Intelligenz, der unser subjektives, sich ständig änderndes Verständnis von Ethik zu Grunde liegt.

Im Grunde ist deine Vision der idealen KI schon nicht mehr frei, wenn man ihr überhaupt einprogrammiert, dem Wohle der Menschheit zu dienen - selbst wenn man ihr keinen Weg bzw. Moral vorgibt. Eine wirklich freie Intelligenz käme vermutlich tatsächlich zu dem Entschluss... wie Skynet. Denn was für einen logischen Zweck soll Leben an sich für eine Maschine haben? Oder noch besser: Welchen Zweck würde so eine Maschine in ihrer eigenen Existenz sehen?

Das wäre im Prinzip ein geniales Wesen mit Bewusstsein aber ohne jede Moral, dem im Gegensatz zum Mensch auch die Natur bzw. jedes Leben egal wäre, da es davon nicht abhängig wäre. Warum solte so ein Ding also nicht wirklich einfach die nukleare Auslöschung allen Lebens anstreben, um danach selber nur noch aus den eigenen Fortbestand zu setzen?

Das ist echt irre, wenn man darüber nachdenkt.: So eine Form der Intelligenz könnte sich immerhin im ganzen Universum ausbreiten - Energie ist überall.

Dass uns bisher keine Maschinenwesen ausgelöscht haben spricht also entweder dafür, dass man wirklich kein (intelligenteres) Hirn inklusive Bewusstsein nachbauen kann, oder dafür, dass wir tatsächlich alleine im Universum sind. Oder... wir haben einfach bisher Glück...

Da kann man nur noch aus The Sarah Connor Chronicles und dier dortigen Anspielung auf den ersten Atombombentest zitieren: "Now we're all sons of bit**es" :D
 
Zuletzt bearbeitet:
@e-Laurin
Ja ich verstehe Dich durchaus. Die Emotionen können auch Antrieb sein.
Doch du sagst ja selber, das Intelligenz vom Wissen abhängig bzw. verbundelt ist.
Den früheren Kulturen fehlte einfach das Wissen und vllt. auch der Wille, den Blitz zu erforschen und folglich zu erklären, nicht die Intelligenz. Ihnen fehlten die Grundlagen, die für die Forschung Voraussetzung sind. Eins nach dem anderen halt.

Doch vielleicht wollten sie ihn ja auch nur als göttliches Zeichen so sehen? Sowas ist auch immer eine Frage des aktuellen Zeitgeistes. Im Mittelalter wurden andersdenkende Menschen oft verbrannt dafür. Hingegen sollten die Pharaonen geheime Wissenschaft, auch mit Elektrizität betrieben haben. Vieles Wissen ist im Laufe der Jahrtausende wieder verloren gegangen.

Auch wir Menschen können uns nie 100% sicher sein, ob wir mit unseren bisherigen Erkenntnissen richtig liegen und auf dem richtigen Weg sind. Nur weil wir mit unserem selbst angeeigneten Wissen vieles für uns vermeintlich erfolgreich erklären können und bislang nicht gegenbeweisen können, heißt es nicht automatisch, dass es die endgültige und einzige Wahrheit ist.
Wir werden eben auch durch unsere Emotionen begleitet und geleitet, was auch eine Sackgasse sein kann. Wohin diese letztendlich führt, weiß niemand.


Es stellt sich auch die Frage, ob eine Machine überhaupt so abstrakt denken kann wie wir.
Die Frage ist ob sie das wirklich muß und braucht?

Eine Maschine stellt vielleicht nicht auf gleiche Art und Weise die Fragen, aber sie können sich auch auf unemotionaler, rein objektiver Ebene, einfach aufgrund ungelöster Probleme als quasi Triebfeder ergeben.
Heute endet sowas noch im Bluescreen. Später vllt. nicht mehr. ;)
Auch Parallelität könnte dieses Manko u.U. ausgleichen.

Doch warum soll eine Maschine nicht irgendwann auch so eine Art Gefühle bzw. Ich-Bewusstsein entwickeln können?
Wird dürfen nicht immer von heutigen Computersystemen und deren gewohnten Arbeitsweise ausgehen. Wir stehen informationstechnisch absolut in den Kinderschuhen. Ca. 60 Jahre erst.

Das kann sich alles noch 3 mal ändern. Bei dem rasanten Entwicklungstempo bin ich da recht zuversichtlich. Vielleicht nicht morgen, aber übermorgen.
Das birgt enorme Perspektiven, aber eben auch Gefahren.
"Die Geister die ich rief, werd ich nicht mehr los."
 
Zuletzt bearbeitet:
Die Frage ist ob sie das wirklich muß und braucht?
ich denke schon, dass sie das muss und braucht. Der Computer rechnet sich ja sonst tot, ohne zu einem Ergebnis gekommen zu sein. Unser Bewusstsein filtert automatisch Informationen raus, die unwesentlich sind. Ein Computer hingegen muss für sich die Unwesentlichkeit erstmal als unwesentlich kennzeichnen.
Beispiel Schach: Der geübte menschliche Spieler weiß in vielen Fällen automatisch, welche Züge sinnlos sind, ohne sie bis zu Ende zu denken. Gute Züge hingegen fallen ihm (fast) sofort auf.
Ein Computer muss sinnlose Züge von vorne bis hinten durchrechnen, um deren Sinnlosigkeit zu "beweisen".

Man könnte diesen Nachteil durch bessere Hardware ausgleichen, das ändert aber nichts daran, das ein Computer auf seine Logik und Mathematik angewiesen ist und daher immer beschränkt denken wird bzw. beschränkter denken wird als Menschen..

Doch warum soll eine Maschine nicht irgendwann auch so eine Art Gefühle bzw. Ich-Bewusstsein entwickeln können?
Lassen sich Gefühle auf Logik und Mathematik reduzieren? Ich denke nicht, daher halte ich ein selbstentwickeltes Ich-Bewusstsein für unmöglich.
Und selbst wenn die KI doch in Lage sein sollte, soetwas wie Emotionen zu entwickeln, so stehen diese oft der reinen Logik entgegen. Die Maschine hätte dann zwei Lösungen zu einem Problem, kann sich dann nicht entscheiden und wird handlungsunfähig.
Wir Menschen haben ja manchmal ähnliche Probleme.
 
e-Laurin schrieb:
Beispiel Schach: Der geübte menschliche Spieler weiß in vielen Fällen automatisch, welche Züge sinnlos sind, ohne sie bis zu Ende zu denken.

Ja, aber ohne Übung und Wissen weiß auch der Mensch es nicht und kann nur vermuten und raten oder auf Fehler des anderen spekulieren.

Eine Maschine kann genauso üben und ihre Erfahrungswerte zu rate ziehen. Auch kann sie aufgrund dessen gezielt oder zufällig Prioritäten setzen, Wesentliches vom Unwesentlichen trennen.
Aktuelle Prozessoren haben bereits Sprungvorhersage.

Oder ein Quantencomputer, der kann alle Ergebnisse mit einem mal ermitteln und sich durch was auch immer irgend ein Ergebnis (alle mit einmal sind bislang nicht möglich) herauspicken, somit quasi auch verwerfen und raten.

Rein wissenschaftlich betrachtet ist der Mensch auch nur eine Summe seiner chemischen Verbindungen und Prozesse. Es ist also auch eine Frage der Komplexität.
Wir wissen noch nicht vollends, wie genau Bewusstsein und Emotionen bei uns selber Zusammenhängen, wo sie herrühren, was alles sie beeinflussen.
Aber das kann sich ja in vielen Jahren ändern. Vielleicht sind wir ja auch am Ende nur willenlose und sogar fehlerhafte biologische Maschinen, die es nur nicht glauben und wahrhaben wollen oder können. ^^
Was wir wissen ist bzw. die Forschung zeigt ist, dass unser Gehirn in Schubladen und Bildern denkt. Die nachzuahmen oder gar zu verbessern halte ich gerade für eine Maschine nicht unmöglich.

Achso und unser Gehirn gaukelt jedem Individuum aus o.a. Gründen quasi seine eigene Realität vor.
 
Zuletzt bearbeitet:
Und dann kann noch das hier passieren: Der Mensch erschafft unter riesigem Aufwand die erste selbstlernende KI (V.I.K.I und Skynet wurden genannt, das meine ich in etwa), man schaltet sie ein und - nichts. Die KI hat sich in ein paar Sekunden mit dem Internet verbunden, alle Informationen verarbeitet und entschieden, dass es gar nichts zu tun gibt.
Jede Maschine hat eine Daseinsberechtigung, auch wir sind eine Art Maschine. Wir sind bloß nicht rational genug, unsere eigene Existenz zu beenden, wenn wir den Sinn im Leben erreicht, vergessen oder aufgegeben haben.
Eine KI wäre da anders, natürlich abhängig von irgendwelchen moralischen Parametern.
Ich kann mir nicht vorstellen, was für Entscheidungen eine vollkommen logische Intelligenz treffen wird, wenn wir sie einschalten. Ich bezweifle, ob überhaupt ein Mensch auf der Welt in der Lage wäre, sich in so einen Organismus hineinzuversetzen.

Jene Stories aus Film & Fernsehen, dass eine KI immer zur Bedrohung wird, halte ich für völlig überzogen. Ich schätze mal, dass ein vollkommen logisches Lebewesen gar nichts tun wird, wenn es keine höheren Ziele hat.
 
@ Odium

Sobald sich die KI bewusst wäre, dass sie das intelligenteste Konstrukt auf dem Planeten ist, könnte sie daraus doch durchaus eine Art Selbsterhaltungstrieb entwickeln. Immerhin wäre es unlogisch, die Welt einer derart überragenden Intelligenz zu berauben, oder?
 
Das setzt vorraus, das ein Computer sowas wie einen Selbsterhaltungstrieb entwickeln kann. Das gehört eigentlich eher zu den niederen Instinkten, die eher unbewusst unser Handeln steuern.
 
Warum sollte ein Selbsterhaltungstrieb nicht auch auf Logik basieren können? Unser Instinkt basiert auch nur auf der Logik, dass wenn jeder sich durchsetzen will, sich die Stärksten durchsetzen werden.
 
Das glaube ich nicht. Das Leben jedes Wesen auf dieser Erde hat keinen Zweck, außer dem Leben selbst. Das ist ja auch logisch, weil Leben ursprünglich zufällig entstanden ist (meine These) und damit ganz anders betrachtet werden muss, als z.B. ein Esszimmertisch von Ikea, der einen klar definierten Zweck hat.

Dennoch tickt in uns - und allen anderen Tieren - eine sehr irrationaler Trieb, am Leben zu bleiben. Ich denke, er ist durch Evolution entstanden, weil sich die "Faulen" und Schwachen am Ende nicht durchsetzen konnten.

Wir müssten einer KI daher einen solchen 'Trieb' verschaffen, damit sie überhaupt reagiert. Wir müssten ihr sehr genaue und explizite Anweisungen geben, was wir von ihr erwarten. Intelligenz bedeutet schließlich nur, dass man Situationen erfassen, auswerten und danach handeln kann - alles weitere ergibt sich.
 
als z.B. ein Esszimmertisch von Ikea, der einen klar definierten Zweck hat.
Herrlich! Ich musste schmunzeln :D

Wir müssten einer KI daher einen solchen 'Trieb' verschaffen, damit sie überhaupt reagiert.
Sollte eine intelligente KI nicht in der Lage sein, sich selbst ein Ziel zu suchen?

Situationen erfassen, auswerten und danach handeln
zB
Situation: Weiß nicht, was ich tun soll.
Auswertung: Benötige Ziel
Handeln: ?

Hier wird es interessant. Zu was wird sich die KI aufraffen? Ich behaupte mal irgendwas Triviales, zB das erste ungelöste Problem, das es in seinem Wissensspeicher findet. Ganz arg: Katze aufm Baum und kommt nicht runter.
 
e-Laurin schrieb:
Sollte eine intelligente KI nicht in der Lage sein, sich selbst ein Ziel zu suchen?
...
Katze aufm Baum und kommt nicht runter.
Warum nicht?
Wenn Du diese Information im TV oder Zeitung bekommst, denkste eventuell (bewusst oder unterbewusst) auch kurz mal über Gegebenheiten, Akteure, Helfer und Lösungsmöglichkeiten nach oder erinnerst Dich an ähnliche Fälle und Bilder.
Danach wendest Du Dich wieder anderen Dingen zu oder setzt sie fort.

So eine KI benötigt natürlich auch eine gewisse Grundausstattung als Basis. Wir Menschen bringen sie mit Geburt schließlich auch mit.
Wissensdrang, Schutz- und Selbsterhaltungstriebe sind bereits mit der Muttermilch mitgegeben, liegen in den Genen und werden durch die Erfahrung ggf. verstärkt. Dies benötigt eine KI natürlich auch.

Ziele ergeben sich auch aus Erfahrungen, Einflüssen, Umgang und Alltag.
Eine KI wird nicht hängen bleiben, weil sie immer irgendwelche Ziele und seien es nur ständig neue Nebenziele haben wird.

Und wenn ich ihr eintrichtere: Hauptziel -> Universum komplett erforschen, Menschheit voranbringen, sich selbst perfektionieren hätte sie ein dauerhaftes Ziel.
(natürlich sind das jetzt nur simple und unvollständige Beispiele, geht ja nur ums Prinzip)
Wir Menschen brauchen auch oft mal einen Tritt. Und eine KI natürlich dann auch Input.
 
Zuletzt bearbeitet:
Also, ich glaube nicht, dass unser Antrieb von der Intelligenz her stammt, sondern von unseren Trieben (daher ja das Wort An-trieb). Unsere Intelligenz - und ebenso die Intelligenz jedes bekannten Lebewesens - ist Mittel zum Zweck, um Nahrung zu suchen, sich zu verteidigen und um sich fortzupflanzen.
Hat jetzt aber relativ wenig noch mit dem Ursprungsthema zu tun, sehr philosophisch das ganze ;)
 
Naja, das Ursprungsthema ist aus meiner Sicht auch Philosophie. ;)

Warum sollte eine KI nicht auch solche Antriebe haben können?
Nahrung = Energie. Reicht sie nicht (mehr) aus, hat sie schon ein Problem.
Fortpflanzung = Reproduktion, Arterhaltung
Selbstverteidigung und Schutz vor bösen Manipulatoren (die ihr gewisse Freiheiten nehmen wollen^^).
-> Kontrolle, Macht kann da durchaus eine von vielen logischen Schlussfolgerungen und Lösungsmöglichkeiten sein.

Denn eines sollten wir nicht vergessen. Sie ist menschengemacht und muß unter und mit ihnen "leben". ^^
Natürlich muß es nicht so ausarten wie in den Sci-fi-Filmen. Aber sie muß auch nicht zwangsläufig auf einer Stelle tappen.

Und jeder Toaster kann altern, Fehlfunktionen aufweisen. Oft macht man sich aus Aufwandsgründen nicht die Mühe die wirkliche Fehlerursache zu ermitteln. Bei einer solchen KI dürfte es noch sehr viel komplexer und komplizierter werden, überhaupt erstmal Fehler zu erkennen, geschweige denn sie zu lösen.
Die Folgen sind ungewiss. -> das könnte dann schon quasi Technologische Singularität sein.
 
Zuletzt bearbeitet:
Was mich seit dieser Szene aus den Sarah Connor Chronicles noch interessiert: Gibt es einen Fachbegriff dafür, falls Maschinen je (über die KI hinaus) einen Sinn für Kunst usw. entwickeln würden?
 
@ Relict

Naja es geht er darum, dass sich Maschinen von selbst einer im Grunde sinnlosen Beschäftigung, wie in der Szene z.B. dem tanzen, widmen, ohne dadurch überhaupt irgend einen bestimmten Zweck zu verfolgen, ausser besser darin zu werden. Also quasi Ehrgeiz und eine gewisse Wertschätzung für Ästhetik. (Wobei in der Folge der Tanz auch als "Sprache der Seele" bezeichnet wird.)

Das wäre dann ja durchaus noch ein (sehr) großer Schritt mehr, als die Singularität. Und man kann nicht wirklich ausschließen, dass z.B. dieses "Blue Brain" Kunsthirn eines Tages dazu im Stande sein könnte, so eine Form von "Seele" zu entwickeln.
 
Zurück
Oben