Technologische Singularität

Also ich sehe da schon Gefahren.
Selbst wenn sie "nur" auf dem aktuellen Intelligenz-Stand des Menschen bleiben würde. Möchten wir wirklich einen Mensch V.2?
Also ich nicht, angesichts dessen, dass der Mensch das einzige Lebewesen auf diesem Planeten ist, dass für seine Ziele sogar seine eigene Art bewusst selbst zerstört und keine natürlichen Feinde mehr hat.
Was würde eine solche "Kopie" daran hindern nun grundsätzlich anders mit sich oder dem Menschen zu verfahren? Sperrcodes, Regeln, Gesetze?
Im Zoo landen oder Haustier sein möchte ich eigentlich auch nicht. ;)
Auch wenns meiner Katze bei mir sicherlich bestens geht. Aber wir sind nun mal denkende Menschen mit Ich-Bewusstsein.


PS:
Um nochmal auf das Thema des Sinns, der Notwendigkeit der Weiterentwicklung einer Maschine zu kommen:
Nun der Mensch strebt immer nach Höherem, nach Verbesserungen seiner Existenz und Lebensqualität. Dies erlangt er nicht nur durch Erfahrung, sondern genauso durch kontinuierliche Wissenserweiterung und Forschung.
Eine Maschine könnte es ähnlich handhaben, sich unendlich optimieren und konfigurieren, somit bewusst oder unbewusst nach Perfektion streben. (ihr Schöpfer ist nunmal unperfekt, somit auch die Maschine)
Wie wir ja alle wissen, kann ein gelöstes Problem viele neue ungelöste Probleme und ganz neue Fragen aufwerfen.
Der Weg, diesem Ziel näher zu kommen birgt daher vorallem die Gefahren. Das gilt ja schon für den Menschen.
Das Hauptrisiko sehe ich dabei in der Schlussfolgerung aus den gewonnenen Erkenntnissen. Hier entscheiden sich Gedeih oder Verderb.
 
Zuletzt bearbeitet:
Ok Relict, du siehst da Gefahren, wo ich Möglichkeiten sehe.
Es geht bei der technologischen Singularität nicht so sehr darum, was der Mensch will. Die Anhänger vertreten die Ansicht, dass Fortschritt unaufhaltsam ist und belegen das anhand unserer Geschichte, in der die Menschheit zu keinem Zeitpunkt von allein auf ihre Errungenschaften verzichtet hat.

Man kann die Singularität schließlich auch so deuten, dass immer weniger Menschen in der Lage sind, die technischen Errungenschaften zu begreifen und der Mensch daher entweder geistig aufrüsten muss oder Hilfe für weiteren Fortschritt braucht. Für ersteres glaubt man an die Nanotechnologie, zweiteres könnte durch die KI entstehen. Wenn man also festhält, dass es immer Fortschritt geben wird und der durchschnittliche Mensch bald überhaupt nicht mehr in der Lage sein wird, die neuesten Erfindungen zu begreifen, dann ist der Mensch (so wie er jetzt ist) dafür unbrauchbar geworden.
Möglicherweise wird man später sagen, dass mit der Entdeckung der Elektrizität, des Computers und der exponentiellen Geschwindigkeit, mit der die Forschung sich ab dann entwickelte, die technologische Singularität bereits begonnen hat.

@keshkau: Wir können einfach niemanden anderen nach dem Sinn des Lebens fragen, als uns selbst. Erstens ist dieser Sinn höchst individuell (wollen viele nicht wahrhaben), zweitens könnte ein Technokrat, der die tech. Singularität erlebt, folgendes antworten: "Der Sinn des Lebens? Ja, den kenne ich. Es ist die Erschaffung einer neuen, uns überlegenden Spezies. Wir haben unseren Zweck erfüllt."
Die von ihm erschaffene KI würde höchstens antworten "Der Sinn deines Lebens war meine Erschaffung. Danke, schönen Tag noch." ^^

PS: Von der Hardware scheint es nicht mehr weit weg zu sein:
Ich zitiere hier mal aus 'Spektrum der Wissenschaft, Jan 2006', Ray Kurzweil
Um die Fähigkeiten des menschlichen Gehirns nachahmen zu können, benötigen wir geeignete Hardware und Software. Die Hardwarevoraussetzungen waren vor fünf Jahren noch strittig, doch inzwischen konnten sich die Experten auf einen gemeinsamen Nenner einigen: Supercomputer schaffen heute bereits 100 Billionen (10^14) Rechenschritte pro Sekunde (RPS) und werden Ende dieses Jahrzehnts 10^16 erreichen. Dies ist das Tempo, das ich für die Simulation des menschlichen Gehirns für erforderlich halte.
 
Zuletzt bearbeitet: (Exponentialzeichen im Zitat eingefügt, damit es Sinn macht)
@Odium
Ich kann Dir in Teilen zustimmen und verstehe durchaus auch den Standpunkt von Technokraten.
Nur kann und will ich mich mit dem Gedanken nicht abfinden, wenn dies bedeutet, dass der Mensch entbehrlich wird und seine Existenz nur der Erschaffung komplexerer "Lebensformen" diente.

Alleine unser Egoismus, Neid, Gier, aber auch unser Selbsterhaltungstrieb stellen für mich einen Widerspruch zu voriger Überlegung dar. ("Der Sinn deines Lebens war meine Erschaffung.")
Alle Möglichkeiten des Fortschrittes, seine Neugier, sein unermütlicher Wissensdrang dienen vorrangig dem Vorteil/Wohl des Menschen und seiner umgebenden (für sich gestalteten) Umwelt, nicht seiner eigenen Ablösung.
Unter Weiterentwicklung des Menschen und Evolution verstehe ich etwas anderes. Weil bei einer derartigen Entwicklung der Gegenpol, das natürliche Gleichgewicht fehlte, nichts und niemand mehr Schritt halten kann und zwangsläufig untergehen muß.
Ich sehe keinen Sinn darin, was dies für Vorteile für die Erde und deren Lebewesen hätte. Auch Wissen (von Dritten), was wir nicht mehr im Ansatz erfassen/begreifen und steuern können, kann und wird uns nicht befriedigen. Wir sind nicht so ausgelegt, Errungenschaften völlig willenlos, ohne zu hinterfragen lediglich nur zu genießen.

DAS hätte sich die Natur auch schneller und einfacher machen können und ein möglicher Schöpfer erst recht. Man bedenke, das der technologische Durchbruch erst vor wenigen 100 Jahren, der hochtechnologische erst vor paar Jahrzehnten begann und dem Millionen Jahre Entwicklung gegenüberstehen.

Die technologische Singularität sehe ich daher als viel eher unerwünschte Entwicklung und mehr Gefahr, als Möglichkeit, weil auch irgendwann völlig unkontrollierbar und unbeeinflußbar und sie letzendlich zur Selbstzerstörung des Menschen und aller ihn umgebenden Umwelt führen kann/wird.
Das Universum ist sicherlich geordnetes Chaos und vieles "Zufall"/ Lauf der Dinge, Kausalität - wie man mag. Die Erde selbst interessierts im Prinzip auch nicht.
Nur der Mensch kann nunmal über sein Denken und Handeln, über seine Lebensqualität und Existenz durchaus bestimmen, die Grenzen festlegen, sofern er dies rechtzeitig erkennt und auch will.
Wo wir mal wieder beim "freien Willen" wären. ;)
 
Nun, alles was möglich ist, wird auch irgendwann einmal gemacht. Das ist ein Leitsatz in der Forschung. Ich denke, wir müssen uns daher früher oder später damit anfreunden, eine KI schaffen zu können, die schlauer ist als wir.

Natürlich ist man als Mensch dann misstrauisch, was dann im 'Kopf' eines solchen Wesens vorgeht. Auch wenn wir sie programmieren, können wir irgendwann nicht mehr nachvollziehen, was genau dieses neue Wesen dann denkt. Als Mensch sind wir ja auch gewohnt, an der Spitze der Nahrungskette zu stehen. Das ist längst nicht für alle Lebewesen selbstverständlich, und dennoch existieren sie ohne zwangsläufig ausgerottet zu werden.

Ich denke, man sollte hier aufgeschlossen bleiben. Es wird höchstwahrscheinlich nicht zu einem Szenario wie in 'Terminator' kommen, weil ich dafür viel zu technikverliebt bin. :D
 
Die Aufgeschlossenheit findet man sicher am ehesten bei denen, die mit dem Thema beruflich zu tun haben. Die Technikverliebtheit ist da ein starker Motor. Trotzdem muss man sich auch mal zurücklehnen dürfen und überlegen, was das Ganze soll. Damit meine ich, dass man sich als Mensch doch nicht – wortwörtlich – zum Affen machen muss.

Wenn man die übelsten Szenarien zu Ende denkt, landen wir irgendwann entweder beim Terminator oder im Menschen-Zoo. Und wofür? Technik um der Technik willen mag ein schönes Hobby sein, vielleicht sogar ein sehr teures.

Aber wenn man in solche Bereiche vorzudringen versucht, sollte man schon eine recht genaue Vorstellung davon haben, was das Ziel der Reise sein soll. Sonst landen wir bei ähnlichen Problemen wie bei der Gentechnologie, wo es keinen (weltweiten) Konsens gibt und wo alles mit jedem vermengt wird. Erlaubt ist, was gefällt.

Es würde mich dann nicht wundern, wenn uns „intelligente Maschinen“ später einmal für ausgesprochen blöd erklären wurden. Denn offensichtlich verhalten wir uns so: dumm oder zumindest planlos.
 
Hi
Also ich habe in meiner Master Arbeit en bissel was zu künstlicher Intelligenz geschrieben.

Hier mal ein Zitat:
Neuronale Netze und Lernverfahren
Bei neuronalen Netzen wird, einfach ausgedrückt, versucht, das menschliche
Gehirn nachzubauen. Zufrieden wäre man jedoch schon, wenn man das
Gehirn einer Fliege künstlich realisieren könnte. Man kann also nur
versuchen, einzelne Fähigkeiten natürlicher Gehirne nachzubauen.

Die technische Basis der KI ist weit davon entfernt ein dermaßen komplexes System wie eine menschliches Gehirn nachzubauen. Und genau das wäre notwendig, um ein Bewusstsein zu erzeugen.

Für eine KI benötigt man im simpelsten Falle:
- Pro Neuron ein Objekt einer beliebigen Sprache
- Das Objekt benötigt:
--> Eingangsfunktion
--> Aktivierungsfunktion
--> Pointer auf folgende Neuronen (seehhr vieele)
Möge sich bitte mal einer die Mühe machen das mit den im menschlichen Hirn vorhandenen Neuronen und Verbindungen mit dem notwendigen Speicherbedarf zu muliplzieren. Und wenn er fertig ist dann möge er doch bitte auch gleich Berechnen wie lange ein einzelner Berechnungslauf dauern würde, und dabei gillt es zu bedenken, dass das menschliche Hirn quasi schwingt. Also für eine Entscheidung nicht einmal sondern viele male durchgenudelt wird...

Viel Spass;-)

Ach ja. Neue Lernalgorithmen benötigt man auch noch...
Und Schnittstellen zu deterministischen Systemen auch...
Und irgendjemand muss dem Supercomputer Leitungen zur Produktion anlöten...
...

Bis ein künstliches Bewusstsein entsteht benötigen wir definitv mehr, als mit den heutigen Tausendfüßlern (Sind ja keine Käfer mehr) notwendig ist.
 
Allerdings muss man sagen das wenn man immer nur mit einem klaren ziel vor augen forschen würde wir heute nicht so weit wären wie wir sind, viele erfindungen sind nur durch zufall entstanden.
Die Ziele die man momentan hat sind auf jeden fall schonmal ein anfang: Roboter die menschklich wirken und z.b. einfache hausaufgaben erledigen können oder verkehrsmittel die eigenständig fahren und ihren nutzer erkennen. gut, hierfür braucht es keine ki die schlauer ist als wir, aber zumindest eine die tieren überlegen ist.
 
Die technologische Sigularität wird kommen! Dass ist so sicher wie das Amen in der Kirche. :cool_alt:
 
Mal schauen. Ich denke auch dass sie kommen wird. Die Frage ist halt nur wann und was man genau als technologische Singularität bezeichnet. Die theoretische Leistungsfähigkeit eines Gehirns oder die Praktische?
 
Ich würde eher sagen, der Zeitpunkt wo das menschliche Gehirn nicht mehr mitkommen/hinterherkommen kann, weder theoretisch, noch praktisch. ^^

Ich sehe das noch recht gelassen, wer weiß schon, ob es die Menschheit überhaupt bis dahin schafft.
Noch keine Kultur auf der Erde hat jedenfalls ewig existiert. Die meisten sind nach paar 1000 Jahren untergegangen. Technischer Fortschritt hatte dies noch nie verhindert.
 
Erstmal danke für den genialen Artikel. Hab leider erst den Anfang gelesen, muss mich mal hinsetzen und ihn ganz lesen, wenn ich mal wieder etwas Zeit hab. Aber was mich wundert, wieso sind denn alle so auf Maschinen fixiert? Wieso sollte der Mensch seine Hirnleistung in der Zukunft weiterhin auf eine technische Plattform auslagern und sich dadurch möglicherweise einen Konkurrenten schaffen? Wäre es nicht viel sinnvoller die eigene, biologische "Hardware" zu perfektionieren? Wer weiß, vielleicht können wir uns in ein Paar Jahrzehnten oder Jahrhunderten ein Upgrade-Kit aus Sprachzentrum, Logikzentrum und Gedächtnis kaufen? Im Moment sind wir noch weit davon entfernt, aber das liegt zum einen daran, dass es viele Menschen gibt, die es ethisch nicht in Ordnung fänden, an biologischer Hardware rumzuschrauben und andererseits die Forschung noch nicht soweit ist, weil sie noch in einem sehr frühen Stadium ist und ihr viele Basics fehlen um die biologische Architektur zu verstehen. Andererseits wird sich aber die Halbleitertechnik mit Sicherheit nicht mehr lange in diesem Tempo entwickeln können und auch neue Materialien sind auf lange Sicht keine Lösung (immerhin wollen wir das menschliche Gehirn übertreffen!). Und wenn wir mit unseren Halbleitern am Ende sind wird sich die Frage stellen, ob unser Hirn nicht doch die bessere Plattform für technologischen Fortschritt ist.

Aber man muss dazu sagen, dass die oben erwähnten Moralisten, die die biologische Forschung bremsen, nicht ganz unrecht haben. Wenn der Mensch erstmal die Möglichkeit hat, seinen eigenen Körper zu vervollkommnen, wie wird er damit umgehen? Vermutlich nach dem üblichen Muster: Die Reichen besorgen sich leistungsfähige Hirne, die armen bleiben so wie sie sind. Was man bräuchte, ist ein Upgrade für die Seele...
 
Also ich will meine Ausführungen noch weiter präzisieren und kenne das Thema eigentlich schon recht lange.

Die technologische Singularität ist der Zeitpunkt, ab dem der technische Fortschritt so schnell und umfassend abläuft, dass ihm ein normaler Mensch nicht mehr folgen kann.

Sowas klingt erstmal unlogisch, weil der Mensch die Technologie erschafft was bedeutet, dass zumindest einer, der Erschaffer, weiß, was er da erschaffen hat.

Das ist auch richtig. In diesem Sinne kann es nur eine technologische Singularität geben, wenn die Technologie sich selbst weiterentwickelt. Das Stichwort ist hier Künstliche Intelligenz.

Kurz: Ohne KI keine Singularität im klassischen Sinn.

Nun stockt die Forschung an der starken KI schon seit Jahrzehnten und warum sollte es jetzt, in den nächsten Jahrzehnten, klappen?
Tja, wenn man von dieser Logik ausgeht, dann dürften hier heute keine Flugzeuge haben!

Wie lange haben die Menschen an Fluggeräten gebaut? Jahrhunderte? Jahrtausende?
Irgendwann war es soweit. Von daher kann man nicht von der Vergangenheit einer Wissenschaft, auf ihre Zukunft schließen. Besonders nicht dann, wenn der Forschungsbereich KI gerade mal 50 Jahre alt ist.

Flugzeuge sind auch ein gutes Beispiel.

Flugzeuge fliegen. Sie fliegen anders als Vögel, aber sie fliegen.
Und es ist sehr wahrscheinlich, dass KI's anders als Menschen denken werden, aber sie werden dennoch denken.

Aus meiner Sicht sprechen 5 Dinge für KI:

1. Steigende Rechenleistung.
Die Rechenleistung von Computern steigt und steigt und steigt.

Ray Kurzweil beziffert die Rechenleistung eines menschlichen Hirns mit 10 Petaflops.
Unser zurzeit stärkster Supercomputer erreicht etwas mehr als 1 Petaflop. Nach Moores Law werden wir die 10 Petaflop Marke im Jahr 2011 knacken. Japan hat auch unlängst angekündigt, in eben diesem Jahr ein 10 Petaflop Computer in Betrieb zu nehmen.

Manche sagen, die Rechenleistung liegt bei 20 Petaflops, andere reden sogar von 100 Petaflops. Es ist egal! Ob 10, 20, 100 oder vielleicht noch mehr. Irgendwann knacken wir die Grenze.

Die Rechenleistung von Supercomputern verdoppelt sich sogar noch schneller, als die von normalen Computern. Bei normalen Computern liegt die Rate bei 18-24 Monaten. Bei Supercomputern bei 14-16 Monaten.

Irgendwann brechen wir die Grenze.

Was aber viel wichtiger ist: Die Rechenleistung steigt. Die Rechenleistung des menschlichen Hirns steigt nicht. Von der reinen Rechenleistung hat ein heutiger Mensch nicht mehr, als jemand der vor 2000 Jahren geboren wurden. Sie stagniert, entwickelt sich nicht weiter.

Dass einzige was sich weiter entwickelt hat, ist unser Wissen. Mehr aber auch nicht.

2. Vernetztes Lernen.
Computer und damit auch KI's kann man vernetzen. Sie können gegenseitig auf ihr Wissen zugreifen und daher viel schneller lernen, als es ein Mensch könnte.

Wenn ein Mensch eine neue Sprache lernen will, dann muss er es auf die selbe dümmliche Weise tun, wie vor 2000 Jahren. Computer und damit KI's können sich einfach neues Wissen downloaden. Sie können ein Kollektiv bilden (jetzt nicht an die Borg denken! ;) )

3. Trägersubstanz.
Die Trägersubstanz der menschlichen Intelligenz ist sein Gehirn. Bei einer KI sind es Daten, sind es Software. Diese Daten sind veränderbar und kopierbar. Was heißen soll, man kann z.B. den "Geist" einer KI kopieren und damit testen. Verschiedene Codes einfügen oder ausschneiden um zu sehen, ob sich etwas verbessert. Man kann updaten.

Beim Menschen kann man nichts updaten! Wenn jemand ein bisschen an meinem Gehirn rumtestet, ist die Wahrscheinlichkeit sehr groß, dass ich einen bleibenden Schaden davon trage!

4. Anforderungen.
Wenn wir Mensch und KI als zwei Systeme ansehen, die nur unter bestimmten Voraussetzungen gut funktionieren, dann braucht die KI weniger, deutlich weniger.

Die KI bräuchte Energie.

Der Mensch bräuchte Nahrung, Luft, Wasser, Platz, ein soziales Umfeld, Abwechslung, Gewohnheit, Sexualität, Sicherheit, Gesundheit, Hygiene und noch vieles mehr. Die Liste liese sich beinah endlos fortsetzen.

5. Wahrnehmung.
Der Mensch denkt. Aber das tut er zum Großteil nur aus den Informationen, die ihm durch seine Sinne zur Verfügung stehen. Diese Sinne sind begrenzt. Tastsinn, Hörsinn, Sehsinn, Geruchssinn usw.

Es ist sehr wahrscheinlich, dass eine KI mehr und bessere Sinne haben wird.
Zum Beispiel besser wird sehen und hören können. Einfach mehr Daten zur Verfügung wird haben und diese auf verschiedene Weise wird auswerten können.

Also ein viel, viel komplexeres Bild der Realität wird haben.

Und zum Schluss, ist leider lang geworden, ein Wort zur Angst davor, die Maschinen würden uns a la Terminator oder Matrix vernichten: Dabei wird immer davon ausgegangen, dass eine KI wie ein Mensch denken wird. Das wird nicht der Fall sein. Schon allein deshalb, weil eine KI keine biologischen Instinkte hat.

Diese sind meiner Meinung nach der Grund, warum Menschen sich gegenseitig abschlachten. Beim Menschen ist das eine unheilvolle Verbindung! Die biologischen Instinkte die uns in gewissen Situationen zu Tieren machen, dass Verlangen diesen Instinkten nachzugeben und seine Intelligenz.

Ein Tier würde einfach seinen Instinkten nachgeben und tun, was immer es tun will.
Aber hier kommt die menschliche Intelligenz ins Spiel: Mit seiner Intelligenz denkt der Mensch sich jetzt Systeme aus, um seine biologischen Instinkte zu befriedigen.

Genau daraus, entsteht dann die Scheiße auf diesem Planeten.

Maschinen haben keine Instinkte und daher werden sie pure Intelligenz sein und pure Vernunft. Aber das ist nur meine Meinung.

Es gibt z.B. die Theorie der "Friendly AI". Das wäre ein KI die so programmiert ist, dass sie Menschen einfach mag und all ihre Handlungen danach überprüft, ob es Menschen schaden würde.
 
Das Verhalten einer KI basiert auf ihrer Programmierung. Wer sagt denn, dass der Mensch mit seinen tierischen Instinkten die KI auf Freundlichkeit trimmen wird? Im Moment steht es so, dass hochentwickelte KIs (sofern man heute schon von KIs sprechen kann) Wissenschaftlern und Militärs zur Verfügung stehen. Was letztere an Programmierung in die KI stecken, ist wohl jedem klar.
 
@angel29.01
Lesenswerter Beitrag, aber speziell Dein letzter Absatz hält mich weiterhin skeptisch.
Maschinen haben keine Instinkte und daher werden sie pure Intelligenz sein und pure Vernunft.
Selbst die logischste Logik, völlig frei von Emotionen kann auch zu uns unangenehmen Schlußfolgerungen führen. Dennoch können diese Entscheidungen vernünftig sein, alles eine Frage der Sichtweise.
Genauso wie anderherum unsere Emotionen auch schon so manches Leben retten konnten, also genauso auch positiv wirken können.

Die Maschine wägt Wahrscheinlichkeiten ab. (die "Vernunft" der Maschine)
Vielleicht passen wir da irgendwann nicht mehr primär ins Konzept.

Ich denke sobald Maschinen von Maschinen völlig eigenständig entwickelt werden, verlieren wir nicht nur rasant Kontrolle, sondern die Risiken steigen exorbitant.
Es gibt z.B. die Theorie der "Friendly AI". Das wäre ein KI die so programmiert ist, dass sie Menschen einfach mag und all ihre Handlungen danach überprüft, ob es Menschen schaden würde.
Wenn eine KI derart programmiert ist, dann bliebe sie teilweise unselbstständig, wir müssten ja stets die Kontrolle behalten. Um diese stets durchsetzen zu können, müsste man sie ja auch weiterhin vollends begreifen können, nachjustieren, lenken.

Dann hätten wir zwar eine sehr fortschrittliche Technologie und uns dienliche Hilfskrücke, aber keine technologische Singularität.
Dazu fehlte der KI dann die ungezügelte Freiheit, der "freie Wille" sozusagen.
 
Zuletzt bearbeitet:
Photon schrieb:
Das Verhalten einer KI basiert auf ihrer Programmierung. Wer sagt denn, dass der Mensch mit seinen tierischen Instinkten die KI auf Freundlichkeit trimmen wird? Im Moment steht es so, dass hochentwickelte KIs (sofern man heute schon von KIs sprechen kann) Wissenschaftlern und Militärs zur Verfügung stehen. Was letztere an Programmierung in die KI stecken, ist wohl jedem klar.

Weil es anders nicht gehen wird.

Eine wirkliche KI, also mit Intelligenz auf menschlichem Level und darüber hinaus, muss friedlich programmiert werden. Es ist der einzige Weg.

Natürlich haben Militärs die Mittel und auch das Verlangen KI zu erschaffen.
Aber hier sollte man realistisch sein: Es macht für das Militär keinen Sinn, eine wirkliche starke KI zu erschaffen, nur so eine könnte die Singularität auslösen.

Das Militär will und braucht KI's die nur in einem sehr begrenzten Maße intelligent sind.
KI's die sich in bestimmten Situationen intelligent verhalten und keine KI's die ein Bewusstsein haben und Kreativ sind.

Für den Abwurf einer Bombe, braucht man weder Bewusstsein noch Kreativität.

Nichtsdestotrotz ist das natürlich ein legitimes Argument und auch deshalb gibt es freie und unabhängige Organisationen, die sich zum Ziel gesetzt haben, eine starke und vor allem für Menschen freundliche KI zu erschaffen.

Das Singularity Institute zum Beispiel: http://www.singinst.org/

@ Relict: Ich glaube das nicht.

Eine starke KI wäre ja auch wirklich intelligent, und zwar richtig.
Nicht nur eine KI die Intelligenz simuliert und dann zu logischen, aber nicht schönen Schlussfolgerungen kommt, wie z.B. Viki in iRobot.

Sie könnte abstrahieren was Recht und Unrecht ist und nicht nur auf Logik beharren.

Übrigens glaube ich nicht, dass eine grundlegend Menschen freundliche Programmierung ihre Unabhängigkeit einschränkt. Solange diese Menschen freundliche Programmierung in der Lage ist sich selbst weiter zu entwickeln, müssen wir nicht eingreifen.

Sieh es mal so: Du hast theoretisch die Möglichkeit einen Menschen zu töten.
Wenn ich dir diese Möglichkeit irgendwie nehmen kann, wirst du dich, sofern du nicht vorhast einen Menschen zu töten, überhaupt nicht verändern. Es hätte gar keinen Einfluss auf dich.

Wenn ich nicht vorhabe einen Menschen zu töten, dann kann es mir auch egal, ob man mir die Möglichkeit nimmt. Schließlich hatte ich es von Anfang an nicht vor.

PS: Obwohl ich VIKI in iRobot durchaus sympathisch fand. ;)
 
angel29.01 schrieb:
Eine starke KI wäre ja auch wirklich intelligent, und zwar richtig.
Was ist denn richtige Intelligenz? Allmacht?
Das der Mensch unvollkommen und nur eine temporäre Phase der Evolution ist, wird auch eine KI feststellen. Und wie sie den Menschen im Verhältnis zum Universum betrachtet kann man nicht bis zum Ende durchrechnen und vorhersehen.

Wenn ich der KI die Freiheit von vornherein nehme, eine für den Menschen unangenehme Schlussfolgerung zu ziehen, auf welchem Weg auch immer, dann ist sie nicht frei und somit auch immer nur beschränkt intelligent.

Sie wird sicher nicht grundlos jemanden töten, wie die wenigsten Menschen ja auch. Ich weiß, das ich das nicht will und darf. Egal ob Logik oder Moral.
Jedoch, ein Kind kommt ja ziemlich neutral auf die Welt und wird stark von seiner Umwelt/ Einflüsse geprägt. Es hat das Wissen zu töten auch nicht, aber die Macht dazu.

Eine KI der diese Entscheidungsfreiheit von vornherein total vorenthalten/ausgeschlossen wird, ist in ihrer Entfaltungsfreiheit nun mal beschnitten.
Jedes mal wenn sie durch irgendeine logische Schlussfolgerung zu einem nur annähernden Punkt kommen musste, kann sie nicht weitermachen und muss zwangsläufig Alternativen suchen, sofern vorhanden.

Auch ein Nichteingreifen kann töten. Im Zweifel müsste sie sich sogar selbst vernichten, vielleicht kommt sie ja auch irgendwann zu diesem Schluss, weil sie eben dahingehend nicht vollkommen sein kann. ^^

Wer garantiert denn, dass diese KI nicht dennoch Gewalt über 3 Umwege ausüben könnte? Wir müssten das also stets nach kontrollieren können, gerade weil sie sich eben weiterentwickelt und das in einem Tempo, wo wir eben nicht mehr hinter herkommen.
Wir sind selbst nicht perfekt. Wie wollen wir da jemals Perfektion über uns hinaus schaffen?
Dazu müssten wir alles (das Universum) von einer Metaebene aus betrachten können, was uns und auch der KI unmöglich sein dürfte.
 
Zuletzt bearbeitet:
Das Militär braucht nicht nur dumme Söldner um Bomben abzuwerfen sondern auch überaus intelligente Agenten um den Feind zu infiltrieren. Intelligenz war schon immer eine gute Waffe. Und wenn das Militär Mittel hat, eine KI zu schaffen, die intelligenter ist als... nicht der Mensch! Nein, intelligenter als die KI des Gegners, und ob sie dabei intelligenter ist als der Mensch, ist zweitrangig - ja dann wird das Militär diese Mittel einsetzen! Der kalte Krieg muss uns doch irgendwas gelehrt haben...
 
Nun, ich bin einfach anderer Meinung. Aber das sind theoretische Debatten, denn wissen tut es heute keiner. Für mich wird einer KI nicht die Freiheit genommen, wenn man es ihr untersagt, z.B. Menschen zu töten.

Aber egal.

Es gibt ja auch noch die Theorie der Friendly AI, welche Menschen sympathisch findet.
Die eine grundlegend positive Einstellung zum Menschen hat und ihn an sich als wichtig empfindet.

Daran Arbeit u.a. das Singularity Institute.

Dass wäre mir persönlich auch lieber und so eine Art 3 Gesetze Modell könnte man als Fail Save Programm einarbeiten. Es wäre meiner Meinung auch sicherer, weil es einfach logischer ist. Wenn die KI nicht das verlangen hat jemanden zu töten, dann wird sie auch nicht nach Wegen suchen, wie sie es kann.

Zur Perfektion: Ich würde sagen, die liegt immer Auge des Betrachters und wenn eine KI intelligenter ist, so wird sie vielleicht Dinge zu unserem eigenen Wohl initiieren, die wir nicht verstehen. Die wird anfangs vielleicht sogar ablehnen werden.

Ein Tierarzt fügt Tieren manchmal Schmerzen zu, aber meistens wegen eines guten Zwecks, wie z.B. Krankheiten heilen oder Operationen. Das Tier versteht es aber nicht, aus seinem beschränkten Blickfeld, aus der zu niedrigen Intelligenz.

Und vielleicht wird die KI Dinge tun, zu unserem Wohl, die wir nicht verstehen.

Wir haben ja immer unsere eigene Sichtweise, egal wie sehr wir versuchen, objektiv zu sein.
Eine KI wäre die erste Intelligenz, die absolut neutral ist und uns vielleicht auch auf Fehler hinweisen würde, die wir nicht sehen.
 
Die meisten hier gehen davon aus, dasss eine KI ähnlich wie wir Menschen denken werden. Das ist falsch. Man kann das nicht einfach so vergleichen. Und kommt mir ja nicht mit Petaflops oder so. Das menschliche Gehirn läßt sich nicht in Flops messen, man bräuchte da ein ganz anderes Verfahren.

Die unterschiedliche Denkweise zwischen KIs und Menschen kann man ja schon darin erkennen, dass die Maschine nach Logik und der Mensch nach Gefühlen, Instinkten, usw. handelt. Das ist wie Bahn und Auto, beide fahren, aber der eine nur auf vorgegebenen Wegen, der andere auf Asphalt, Schotter, Sand, usw.

Es ist beiden nicht bzw. nur begrenzt möglich, auf den Wegen des jeweils anderen zu fahren.

Und genauso wie die KI wie ein Zug ist und der Mensch wie ein Auto, denke ich, dass eine fortgeschrittene KI den Menschen maximal eine Hilfe sein, aber ihn nicht ersetzen wird. (Schön komplizierter Satz :-/)


Eine KI, die intelligenter als der Mensch sein soll, müsste vielfälter denken können als wir es tun. Um sowas zu erschaffen, müssten wir mindestens eben so vielfältig denken können. Das bedeutet aber, dass der Mensch immer mindestens genauso kreativ denken wird wie eine Maschine -> Die KI wird dem Menschen nie überlegen sein.

Die Überlegung, dass die KI sich von alleine in der Richtung entwickeln wird, ist wahrscheinlich. Genauso wahrscheinlich ist es aber auch, dass der Mensch sich ebenfalls in mindestens derselben Geschwindigkeit weiterentwickeln wird. ABER: So eine Entwicklung braucht Zeit. Der Mensch ist ja auch nicht über Nacht intelligent geworden, deshalb wird eine KI auch nicht über Nacht intelligenter werden als wir. Wie könnte sie aus?


Die meiner Meinung nach einzige Möglichkeit, eine Maschine annähernd so intelligent zu machen wie ein Mensch, ist es, ein Verbund aus Kunst und Natur zu schaffen: Ein mechanisch-biologisches Konstrukt.
Perry Rhodan Fans wissen, was ich meine: die Posbis ;)
Das sind Wesen, wo eine Art Gehirnmasse mit einem hochentwickelten Computer verbunden sind, die dauernd Zwiesprache halten. Durch diesen Zwiespalt entsteht ihr Intelligenz, die je nach Situation entweder vom Gehirn oder vom Computer diktiert wird.

Nicht besonders intelligent, aber schon wesentlich besser als jetzt.
 
e-Laurin schrieb:
Eine KI, die intelligenter als der Mensch sein soll, müsste vielfälter denken können als wir es tun. Um sowas zu erschaffen, müssten wir mindestens eben so vielfältig denken können. Das bedeutet aber, dass der Mensch immer mindestens genauso kreativ denken wird wie eine Maschine -> Die KI wird dem Menschen nie überlegen sein.

Und wieso? Das ist kein Argument, sondern eine Behauptung. Wir haben eine Vielzahl von Dingen erschaffen, die uns heute überlegen sind und die nur 99,99% aller Menschen noch so weit verstehen, dass sie sie nochmal bauen könnten. Das fängt an beim Auto, der CPU oder einem Digitalradio. Unser gesamter Fortschritt beruht auf unserer arbeitsteiligen Gesellschaft, in der immer ein paar findige Köpfe ein paar weniger findige Köpfe einstellen, arbeiten lassen und somit ein Produkt anbieten können, dass allen Menschen hilft.
Und mit der KI - da wird es ganz genauso laufen. Eines Tages wird ein intelligenter Typ A einen Algorithmus entwickeln und eine noch intelligentere Frau B wird das ganze soweit abändern können, dass daraus die erste echte KI entsteht.

Trotzdem glaube ich, dass diese KI sich viel schneller entwickeln wird als wir. Das war ja bislang überall so, dass unser Körper sich erst mit Jahrtausenden an Verzögerung angepasst hat.
Z.B. kann man heute kein Auto herstellen, ohne auf die Hilfsmittel anderer Maschinen zurückgreifen zu können. Maschine baut Maschine baut Maschine baut Produkt - ich denke so ähnlich wird es bei der KI auch ablaufen.
 
Zurück
Oben