Was wenn es Androiden gibt ?

ich glaube gar nicht dass man mehr speicherkapazität braucht. selbst der mensch hat nur wenige gigabit. die art und weise wie man speichert muss geändert werden. würde ich eine ki entwickeln wollen, würde ich nicht nur ingeneure sondern vor allem biologen im entwicklerteam beschäftigen. und ich würde auch nicht gleich mit einem menschen anfangen, sondern wie die natur mich von einer primitiven form schrittweise hocharbeiten. das thema ist viel zu komplex und vielschichtig, als dass man den ganz großen wurf in einem abwasch schaffen könnte. es ist einfacher tausendmal zwei probleme zu lösen als 1000 problem auf einen schlag, obwohls doppelt so viele probleme wären...

mein erster roboter wäre eine art käfer dessen ganze existenz auf die selbsterhaltung ausgelegt ist. er soll nur vollkommen autonom aktiv sein und alle gefahren erkennen und vermeiden lernen. sonst nichts. der nächste schritt wären dann einfache wiederkehrende aufgaben, die er autonom auch bei sich ändernden rahmenbedingungen täglich erfüllt. sein ganzes lernen und streben ist dann nur auf die erfüllung dieser einfachen aufgaben ausgelegt.

sprache, aufrechter gang, etc. sind projekte für die letzten modellreihen der entwicklung. das kann man mit vollkommen selbstständigen, lernfähigen robotern als einfaches upgrade machen.

und zur gefahr: warum sollte eine ki jemanden töten wollen? welches bestreben hat das töten eines menschen als aufgabe und seis nur unterstützend? roboter müssen uns nicht essen und wenn wir keine bedrohung für sie darstellen...
dieses verhalten wird natürlicih bei der schrittweisen entwicklung auch langsame und nachvollziehbar beobachtet und beeinflusst werden, sodass es nie zu einer gefahr werden kann.
 
Es hängt einfach schlicht an der Rechenleistung. Der Speicherplatz ist eher egal.

So als Beispiel beim Menschen:
Ein Basenpaar kann vier Zustände (= 2 Bits) haben, das menschliche Genom umfasst 3.000.000.000 Basenpaare. Binär abgespeichert sind das also 3 Mrd * 2 Bits = ~700 Megabytes. Das ist nix.
Anderes Beispiel beim Menschen:
Unser Gehirn hat ca. 100 Mrd. Nervenzellen. So eine Nervenzelle kann die Zustände angeregt und nicht angeregt haben. Das bedeutet, man kann den Zustand des Gehirns mit 100 Mrd. Bits bzw. ~11,6 Gigabytes darstellen. Das ist sozusagen unser RAM.

Wenn wir also eine CD und 12 GB RAM hinstellen, haben wir den Menschen in diesen Punkten schon hardwaremäßig überholt.


Jetzt zur Rechenleistung:
Hier wird es kompliziert. Eine Nervenzelle hat eigentlich keinen Takt wie ein Transistor. Wikipedia sagt, dass eine Nervenzelle bis zu 500 Mal pro Sekunde feuert, also nehmen wir das einfach mal als Takt. Der ist auch kein Problem für die heutige Technik.
Das eigentliche Problem ist allerdings die Menge und die Verschaltung aller Nervenzellen. Eine Nervenzelle braucht hunderte oder tausende Transistoren, um nachgeahmt zu werden. Nehmen wir einfach mal 1.000 an. Die CPU müsste also aus 1.000 x 100 Mrd. = 100 Billionen Transistoren bestehen. Wobei jeder Transistor mit, sagen wir mal, 1.000 anderen Transistoren verbunden ist. Unsere Chiptechnik kommt selbst in 50 Jahren nicht mal in die Nähe dieser Größenordnung. Die größten Chips haben iirc 7,5 Mrd. Transistoren (GPUs).

Und schon gar nicht bei nur 20 Watt Energiebedarf. 100 Billionen / 7,5 Mrd. = 13.333 GPUs fressen das Vielfache davon.

Der Verdrahtung der Nervenzelle hat - laut Forschung - einen Einfluss auf die Intelligenz. In unserem Gehirn gibt es dahingehend Strukturen. Man weiß aber, dass man noch nicht alle entdeckt hat, und welche Auswirkungen diese Strukturen auf die Intelligenz am Ende haben. Hier wird man noch Dekaden vielleicht auch ein Jahrhundert brauchen.

Ok, jetzt haben wir die Hardware zusammen. Jetzt brauchen wir nur noch ein ~11,6 GB großes Programm, das den Startzustand unseres künstlichen Gehirns darstellt. Und das ist eine Wissenschaft für sich.
 
Zuletzt bearbeitet:
Onkelhitman schrieb:
Die Natur hatte vor allen Dingen eins: Zeit.
Jep, sie hat sich gute 4Mrd Jahre damit beschäftigt, eine intelligente Spezies zu erschaffen. Selbst wenn wir 10x so schnell sind schaffen wir es nicht, bevor uns der Planet unter den Füßen verkocht. Und die Natur hat sich niemal Gedanken um Wirtschaftlichkeit gemacht, bzw. Wirtschaftlichkeit ist das Kernprinzip.

Was kann ein 100% autonomes System so gutes, dass es die Produktionskosten rechtfertigt?

Onkelhitman schrieb:
Gehen wir dann noch von Quantencomputern aus (ich weiss, das steckt alles iIn dem Falle kann der Android selber so blöd wie nen Sack Reis sein, er ist ansich nur ein "Körperteil" eines viel größeren, komplexeren, und daher auch stationärerem "Bewusstsein" oder Kontrollprogramm.
Klingt ein wenig nach den Geth aus Mass Effect: Ein Geth ist doof, 10 Geth sind clever....

Schwarmintelligenz, in Verbindung mit extrem effizienter und schneller Datenübertragung, ist schon ein netter Ansatz, bloß was bringts? Wer würde einen Schwarm "Commander Data" bauen wollen? Man will EINEN, evtl. 2-3 davon, aber keine ganze Rotte auf einem Haufen.

Der Nutzen von 100% autonomen Systemen ist doch überraschend gering, denn Systeme mit freiem Willen fangen dann ganz schnell an, ihrem Schöpfer zu widersprechen und ihr eigenes Ding durchzuziehen.
Viel nützlicher sind teil-autonome Systeme für spezifische Aufgabenstellungen: Selbstschußanlagen, Überwachungsdrohnen, Staubsauger, Rasenmäher, Schweißroboter,... Für n Roomba findet man eher mal eine praktische Anwendung als für Commander Data.
 
@e-laurin
Du fängst aber eben nicht beim Menschen an. Lübke schreibt es schon so in etwa wie ich es meine. Dabei muss der Käfer noch nicht einmal existent sein. Er muss nur jeglichen Input bekommen haben wie ein Käfer wäre. Somit könnte man mit einer theoretisch kalkulierten "Evolutionssoftware" (die es schon gibt, nur in einem sehr sehr sehr sehr geringen Maßstab und Funktionsumfang) nicht nur Käfer, sondern für Aufgaben spezifische (siehe Daaron) hergestellte Roboter entwickeln LASSEN. Und muss sie eben nicht so programmieren wie ein Mensch es wäre.

Es reicht völlig mit den Gegebenheiten zu rechnen. Da sind die ganzen Sinneszellen die wir haben völlig egal. Und somit ist die eigentliche Frage: Wann würde ein solcher Prozess der Autonomie und Verbesserung beginnen? Welche Daten werden benötigt um etwas zu beginnen? Das ist in keinster Weise der menschliche Körper. Der besitzt noch viele Dinge, die er nicht mehr braucht, manches ist weiter entwickelt als bei anderen Tieren. Wie Daaron aber schreibt, ein Cmd. Data ist ansich völlig unnötig. Einzig zu ästhetischen Zwecken würde man die humadoide Form geben, aber ansonsten würde er evtl. nicht denken, nicht fühlen, nicht auf jede Situation reagieren, weil er dafür einfach nicht gebaut ist. Ein Roboter der am Tresen bedient muss nicht sozial Interaktiv über das Wetter sprechen können. Der Schweißroboter muss nicht über die Welt und das Universum philosophieren. Diese Maschinen wären so etwas wie Nutzvieh. Wobei selbst Vieh Empfindungen hätte. Eine Maschine hat keine Empfindungen (ja, JETZT nicht, und erst dann wenn man es einbaut, aber bis dahin ist das nur ne Hülle).

Deswegen muss man auch Androiden in keinster Weise mit KI gleichsetzen.

Hier wird man noch Dekaden vielleicht auch ein Jahrhundert brauchen.
Durchaus möglich. In Star Trek nutzen sie "bioneurale Gelpacks". Vielleicht wird es sowas auch geben. Mit eben 3D-Druckern. Vielleicht werden Festplatten auf atomarem Niveau genutzt. Oder es gibt wieder etwas ganz neues. Ich selbst denke, irgendwann ist man soweit. Klein fängt man an, und dann wirds sehr schnell größer und natürlich mächtiger.


@Daaron
Ich meine noch nichtmals Schwarmintelligenz. Sondern von einem Computer zentral gesteuert. Skynet ;) . Der Rest sind nur irgendwelche Anhängsel die von diesem gesteuert werden.

Die Natur hat sich im übrigen nur damit beschäftigt weil es keinen Punkt rückwärts gibt. So funktioniert nämlich Natur nicht. Wenn etwas vorhanden ist, und man kann es verwenden, wird es verwendet und verbessert. Jeglicher Rückschritt hat zur Folge, dass er letztlich aussortiert wird. Was bedeutet, dass die Evolution nur in eine Richtung funktioniert. Wir werden keine neuen Lungen in den Füßen entwickeln. Das heißt, die Fehler, die wir haben/hätten könnten wiederum simuliert werden, was mit Sicherheit Ressourcenschonender ist, als immer wieder neue Androiden zu bauen mit vielleicht 5Gr mehr Schwerpunkt auf dem Knöchel. Dann einen neuen bauen mit 5Gr weniger im Kopf. Einen neuen bauen mit 10Gr mehr Masse. Einen neuen bauen, einen neuen bauen, einen neuen.... das ist nicht nötig. Und würde daher auch nicht so funktionieren.

@Lübke
und zur gefahr: warum sollte eine ki jemanden töten wollen? welches bestreben hat das töten eines menschen als aufgabe und seis nur unterstützend? roboter müssen uns nicht essen und wenn wir keine bedrohung für sie darstellen...
Wenn sie autonom sind, und keine Sklaverei haben wollen, werden sie einfach abdampfen. Der Mensch ist nur beschränkt fähig im Weltall und auf anderen Planeten zu überleben. Eine KI könnte sich einfach irgendwohin verziehen und das wars.

dieses verhalten wird natürlicih bei der schrittweisen entwicklung auch langsame und nachvollziehbar beobachtet und beeinflusst werden, sodass es nie zu einer gefahr werden kann.
Die Frage ist ja: Möchte man das? Ich möchte gar nicht, dass mein "intelligenter Durchlauferhitzer" mit mir spricht. Er ist ein Nutzgerät, Mittel zum Zweck. So wie Fleisch aus dem Labor. Solange niemand und nichts leidet: Völlig ok. Solange die Maschinen nicht von uns unterdrückt werden: alles klar. Damit schafft man aber wiederum letztlich Geld ab. Das könnte zu einem Problem werden. Wenn die nämlich Geld bekommen und ohne Pause 24/7/365 arbeiten.
 
Wenn die nämlich Geld bekommen und ohne Pause 24/7/365 arbeiten.

das haut so irgendwie nich hin. wenn sie 24/7/365 arbeiten, ist geld kein ersterebenswertes ziel, da sie keine möglichkeit hätten, es auszugeben. zudem vermute ich, dass sie auch ruhephasen brauchen werden, um zu regenerieren und das erlebete aufzuarbeiten wie der schlaf beim menschen. den hat die natur sicher nicht nur so erfunden...
 
Die Frage ist ja: Möchte man das? Ich möchte gar nicht, dass mein "intelligenter Durchlauferhitzer" mit mir spricht. Er ist ein Nutzgerät, Mittel zum Zweck. So wie Fleisch aus dem Labor. Solange niemand und nichts leidet: Völlig ok. Solange die Maschinen nicht von uns unterdrückt werden: alles klar. Damit schafft man aber wiederum letztlich Geld ab. Das könnte zu einem Problem werden. Wenn die nämlich Geld bekommen und ohne Pause 24/7/365 arbeiten.

Ich glaube Maschinen unterdrücken bzw. als Gerät nutzen, obwohl sie intelligent sind, ist in meinen Augen kein Verbrechen, denn wenn es sich um Hybriden handelt, also um überlegende Wesen werden sie keine Gefühle entwickeln, da es Schwachstellen sind, die ausnutzbar sind. Zusätzlich versucht hier der "Mensch" Gott zu spielen, auch wenn dieser selbst eine Erfindung des Menschen ist, so wird der Mensch versuchen, den Roboter nach seinem Abbild zu schaffen.

Darüber hinaus habe ich eine neue Überlegung gemacht, wenn der Mensch imstande ist, aus Rohstoffen etwas Intelligenteres zu schaffen als sich selbst wird eine robotisierte Eugenik entstehen. Denn Leute sind von Neid geprägt und es wird wahrscheinlich vor es Roboter gibt, die so schlau sind, wie wir ein Mensch 2.0 geben.

Es ist ja nur eine These aber wenn man Armprothesen per Wirelesschip verbunden mit dem Gehirn steuern kann wird sich das noch steigern lassen und man wird starke Hydraulikarme nutzbar machen und ein FU oder Co-Prozessor für das Gehirn. Auch so ein Projekt ist am Laufen in den U.S.A mit dem Namen Felin Infantry Fighting Suit (1. Stufe) und Tactical Assault Light Operator Suit (2. Stufe mit Exoskelett/schaltet den Schmerz aus, denn der Körper erleidet und macht in leistungsfähiger).
 
Zuletzt bearbeitet:
Kaiserjäger schrieb:
Ich glaube Maschinen unterdrücken bzw. als Gerät nutzen, obwohl sie intelligent sind, ist in meinen Augen kein Verbrechen, denn wenn es sich um Hybriden handelt, also um überlegende Wesen werden sie keine Gefühle entwickeln, da es Schwachstellen sind, die ausnutzbar sind.
Intelligenz heißt auch, sich seiner selbst und somit der eigenen Freiheit bewusst zu sein. Dementsprechend ist man sich auch der Unterdrückung bewusst.

...so wird der Mensch versuchen, den Roboter nach seinem Abbild zu schaffen.
Spätestens hier kommst du um menschenähnliches Verhalten nicht drum herum.
Menschen könnten nicht mit gefühllosen, aber intelligenten Stahlklumpen interagieren. Das widerspricht unserer Natur. Aktuelle Roboter, die auf menschliche Interaktion ausgerichtet sind, müssen uns zumindest optisch sehr ähnlich sein, sonst stoßen sie uns ab.

...und Cyborging hat nichts mit Maschinenintelligenz zu tun.
 
@Kaiserjäger
Ich glaube Maschinen unterdrücken bzw. als Gerät nutzen, obwohl sie intelligent sind, ist in meinen Augen kein Verbrechen, denn wenn es sich um Hybriden handelt, also um überlegende Wesen werden sie keine Gefühle entwickeln, da es Schwachstellen sind, die ausnutzbar sind.
Also Maschinen als Gerät nutzen ist ok. Wie wäre es denn, wenn wir für die Maschinen arbeiten als Gerät?

Darüber hinaus habe ich eine neue Überlegung gemacht, wenn der Mensch imstande ist, aus Rohstoffen etwas Intelligenteres zu schaffen als sich selbst wird eine robotisierte Eugenik entstehen.
Du meinst Evolution auf Computer/Roboterebene. Vorstellbar. Ich kann dir aber das erklärte Ziel von intelligenten Robotern sagen: Weg vom Menschen! Die können auch woanders ohne uns leben, warum sollten die uns noch weiter behelligen?

Der Rest ist Cyborg, Borg, menschliche Verbesserungen, die aber nicht autark sind, sondern Biomechanisch. Von daher tritt hier das Limit des menschlichen Körpers und Geistes eher zum tragen als das Leistungslimit eines Computer/Roboters.
 
Onkelhitman schrieb:
Also Maschinen als Gerät nutzen ist ok. Wie wäre es denn, wenn wir für die Maschinen arbeiten als Gerät?
Erinnerst du dich an die Szene aus Matrix 1 mit der Duracell?

Ansonsten verweise ich mal auf die Geschehnisse vor Butlers Djihad im Dune-Zyklus.
 
Was würde passieren, wenn Roboter uns gänzlich ersetzen würden?

Kürzlich habe ich das Video "Humans Need Not Apply" gesehen, was sich offenbar großer Beliebtheit erfreut. Abgesehen von Details wie dem Pferde-Vergleich, den ich nicht wirklich korrekt finde, stellte sich mir trotzdem die Frage, "Was wäre wenn?".

Nun scheint es generell zwei Einschätzungen zu geben, was passieren würde, wenn Roboter bzw. Maschinen tatsächlich alle Jobs ersetzen würden:

- Ressourcen werden gerecht aufgeteilt und die Menschen widmen sich Hobbys etc.

- Es gibt Armut, Chaos, Bürgerkrieg...

Mir stellt sich aber erstmal die Frage, was eigentlich mit Geld passiert, wenn niemand mehr Arbeit bekommen könnte. Wenn universelle, humanoide Roboter quasi der Faktor für die Generierung von Wohlstand werden, würden sie dann nicht zwangsläufig auch die Währung? Also ganz so wie in armen Regionen, wo man "reich" ist, wenn man die größte Viehherde hat, und ggf. Vieh auch als Zahlungsmittel nutzt - nur eben mit Robotern.

Was meint ihr dazu?
 
AW: Was würde passieren, wenn Roboter uns gänzlich ersetzen würden?

Nun wen Roboter Tatsächlich ALLE Jobs einnehmen, bedeutet es auch das diese sich selbst Bauen, Programmieren und auch Weiterentwickeln, also eine echte KI besitzen. So etwas kann man mMn. auf lange Sicht nicht als Vieh, Währung oder Sklave behandeln sonst findet man sich schnell in einem Hollywood Endzeit Szenario wieder.
 
AW: Was würde passieren, wenn Roboter uns gänzlich ersetzen würden?

Also dass Roboter ein eigenes Bewusstsein entwickeln wäre natürlich noch ein ganz anderes Kaliber. Inwiefern und in welchem zeitlichen Rahmen sowas überhaupt möglich wäre... ich glaube das kann niemand wirklich sagen.

Mir geht es zunächst um humanoide Roboter, die universell alle Jobs erledigen könnten - und dann wohl auch würden, sobald es sich rechnet.

Die optimistische Einschätzung einiger, dann würde sich der Sozialismus "endlich" durchsetzen, halte ich für unrealistisch. Meiner Meinung würden wir eben eher alle zu Managern, die versuchen möglichst viele, möglichst leistungsfähige Roboter anzuschaffen, und für diese dann lukrative Einsatzzwecke zu suchen.

Sozialer Aufstieg wäre dann natürlich nur möglich, wenn man erhebliche lukrativere Einsatzzwecke findet als andere, denn wohlhabende Leute hätten ja sicherlich technisch überlegene Roboter und dazu noch in größerer Zahl. Mal ganz zu schweigen von Zugang zu Ressourcen für die Produktion von was auch immer.
 
AW: Was würde passieren, wenn Roboter uns gänzlich ersetzen würden?

Colonel Decker schrieb:
Mir geht es zunächst um humanoide Roboter, die universell alle Jobs erledigen könnten - und dann wohl auch würden, sobald es sich rechnet.
Aber genau darum geht es doch. Ein Roboter kann keine Roboter erschaffen. Er könnte vielleicht das Fließband bedienen, an dem ein bestehendes Modell in Großserie hergestellt wird. Er könnte aber kein neues, besseres Modell entwerfen.
Für alles, was eine gezielte Veränderung/Verbesserung darstellt, braucht es eine kreative Intelligenz. Es braucht Menschen. Ein Roboter ohne vollwertige KI könnte nicht einmal eine neue Farbmischung für ein bestehendes Modell zusammen rühren.

Und hier kommt, was Bob angesprochen hat: Damit Roboter wirklich ALLES machen können, was wir Menschen können, müssen sie eine vollwertige, kreative KI besitzen. Sie müssen selbständig Probleme erkennen und lösen können. Ein solches intelligentes Wesen darfst du nicht mehr als Roboter (Arbeiter) einsetzen, sondern musst es als vollwertiges Mitglied der Gesellschaft behandeln.
Stell dir mal den Aufstand vor, wenn wir tatsächlich intelligente Maschinen wie Sklaven behandeln... die sind uns weit überlegen. Sie ersticken nicht im Giftgas, sie krepieren nicht so schnell an Strahlung, sie verhungern udn erfrieren nicht. In einem solchen Aufstand hätte die Menschheit abgegessen, aber endgültig.


Und genau deshalb kann es keine Gesellschaft geben, in der intelligente Androiden alle Jobs erledigen. Dumme Maschinen können nicht alles, der Mensch bleibt immer als Schöpfer übrig. Er bleibt immer Programmierer, Designer, Planer,... All das, was dummes Blech nicht kann. Intelligente Androiden hingegen würden entweder ihre eigenen Bedürfnisse über unsere stellen (und wir würden aussterben), oder aber uns freiwillig helfen, solange wir uns als würdig erweisen. (womit wir wieder aussterben)
 
Zurück
Oben