[ChAoZ]
Rear Admiral
- Registriert
- Jan. 2010
- Beiträge
- 5.236
Sehr lustige Unterhaltung hier
Was die meisten aber bei ihrer "Weltuntergangsgeschichte" alá Terminator vergessen ist; die Menschheit war erst dann dem Untergang geweiht, als das System ins Internet durfte, also die Lokale Umgebung verlassen konnte.
Solange die -egal wie weit entwickelt- KI nur Lokal betrieben/erforscht/entwickelt wird, besteht keine Gefahr für die Welt...
Zum Thema "Lernprozess" der KI:
Wir sind alle Menschen, stimmts? Also wie kommt ihr drauf dass eine Maschine sich wie ein Mensch entwickeln wird? Für einen Menschen sind die Urinstinkte zum überleben wichtig (gewesen), eine Maschine braucht das nicht. Angst, Mitleid, Schmerz, Hoffnung, Liebe uvm. kann eine Maschine nicht nachempfinden, nicht mal simulieren kann sie das.
Aber genau diese -und viele andere mehr- Empfindungen haben uns Menschen zu dem gemacht, was wir heute sind.
Also schließt sich daraus nur eins: keiner kann die Entwicklung einer Lernfähigen Maschine nur erahnen! Nur weil wir Menschen immer das "böse" zu erst lernen (wohl ein Überbleipsel aus der Urzeit) wird es die Maschine nicht auch zwangsläufig.
Zum Thema Gott:
"Wenn es einen Gott gibt, ist der Mensch ein Sklave.
Der Mensch ist und will kein Sklave sein, also gibt es keinen Gott"
So, oder so ähnlich lautet das Zitat, keine Ahnung von wem es stamm.
Was die meisten aber bei ihrer "Weltuntergangsgeschichte" alá Terminator vergessen ist; die Menschheit war erst dann dem Untergang geweiht, als das System ins Internet durfte, also die Lokale Umgebung verlassen konnte.
Solange die -egal wie weit entwickelt- KI nur Lokal betrieben/erforscht/entwickelt wird, besteht keine Gefahr für die Welt...
Zum Thema "Lernprozess" der KI:
Wir sind alle Menschen, stimmts? Also wie kommt ihr drauf dass eine Maschine sich wie ein Mensch entwickeln wird? Für einen Menschen sind die Urinstinkte zum überleben wichtig (gewesen), eine Maschine braucht das nicht. Angst, Mitleid, Schmerz, Hoffnung, Liebe uvm. kann eine Maschine nicht nachempfinden, nicht mal simulieren kann sie das.
Aber genau diese -und viele andere mehr- Empfindungen haben uns Menschen zu dem gemacht, was wir heute sind.
Also schließt sich daraus nur eins: keiner kann die Entwicklung einer Lernfähigen Maschine nur erahnen! Nur weil wir Menschen immer das "böse" zu erst lernen (wohl ein Überbleipsel aus der Urzeit) wird es die Maschine nicht auch zwangsläufig.
Zum Thema Gott:
"Wenn es einen Gott gibt, ist der Mensch ein Sklave.
Der Mensch ist und will kein Sklave sein, also gibt es keinen Gott"
So, oder so ähnlich lautet das Zitat, keine Ahnung von wem es stamm.
Zuletzt bearbeitet: