Künstliche Intelligenz (KI)

new Account() schrieb:
Bzgl. des Bewusstsein, wie würdest du denn überhaupt herausfinden, dass eine künstliche Intelligenz ein Bewusstsein hat? V.a., wenn sie wie ein Mensch agiert?
Der erste Schritt waere zu testen ob sie sich, ohne je spezifisch darauf trainiert worden oder mit dem Problem in Kontakt gekommen zu sein, selbst erkennt und im Weiteren was sie sie daraus ableitet, zum Beispiel ihre eigene Endlichkeit.
Zur Zeit ist mir keine einzige KI bekannt die von sich aus auch nur ihr eigenes Speicherabbild als sich erkennen wuerde.

new Account() schrieb:
Eine "Beschädigung des Systems" (z.B. Nadelstich) bei Menschen löst z.B. immer eine Bestrafung aus
Immer ist falsch, das ist mit der zweifelsfrei belegten Existenz von u.A. Masochisten nicht vereinbar. Extremsport ist ebenso eine Beschaedigung fuehrt aber nicht zur Bestrafung sondern zum genauen Gegenteil. Mit externen Substanzen funktioniert das natuerlich auch, von Rauchen bis zu ungesunder Ernaehrung. Wuerder der Mensch fuer Beschaedigung bestraft werden wuerde er es keine Stunde sitzend vor einem Computer aushalten. Es faenden sich noch reichlichst weitere Beispiele.
Der Mensch kann seine "Vorprogrammierung" in gewaltigem Umfang modifizieren, umgehen oder ignorieren, so weit dass sie nahezu bedeutungslos werden kann. Irgendwann in ferner Zukunft wird eine KI dieses Niveau ziemlich sicher erreichen aber noch ist sie meilenweit entfernt.

new Account() schrieb:
Nährstoffmangel löst Hunger/Bestrafung aus usw.
Auch nicht immer, siehe gezieltes Fasten das teils sogar ueber eine Woche zu irgendwelchen spirituellen Zwecken betrieben wird. Was auch immer man davon halten mag, aber nach den ersten ein bis zwei Tagen verschwindet bei vielen der Hunger weitgehend. Manche nutzen den Zustand dann fuer Mediation o.Ae. .

So ein primitiv mechanisches Wesen ist der Mensch dann auch wieder nicht.

new Account() schrieb:
Frieden kannst du quantisieren - je nach Definition:
  • Schmerz (egal ob physisch oder psychisch) eines Lebewesens wird nicht durch ein Lebewesen gleicher Klasse verursacht
  • Schmerz von mehreren Lebewesen einer Gruppe wird nicht besonders (Benutzung des Levels des Schmerzufügens von den Lebewesen innerhalb einer Gruppe) durch Lebewesen einer anderen Gruppe verursacht
Sehr unguenstige Definition, damit ist es der KI problemlos moeglich Menschen zu toeten. Sie muss es entweder schnell genug tun damit das Schmerzsystem der Betroffenen nicht reagiert oder es vorher durch Einsatz von z.B. Betaeubungsmitteln deaktivieren.
Sie koennte "friedlich" eine ganze Stadt mit A-Waffen verdampfen. Hat doch keiner Schmerz empfunden aber dennoch duerfte das kaum unter irgendeine gaengige Definition von Frieden fallen.
 
K7Fan schrieb:
Der erste Schritt waere zu testen ob sie sich, ohne je spezifisch darauf trainiert worden oder mit dem Problem in Kontakt gekommen zu sein, selbst erkennt und im Weiteren was sie sie daraus ableitet, zum Beispiel ihre eigene Endlichkeit.
Ist das notwendig um ein Bewusstsein zu haben? Und ist das hinreichend? Ich denke weder noch.
Kleiner Hinweis: Afaik ist es noch keinem Wissenschaftler gelungen eine Methode zu finden um das herauszufinden.

Es gibt sogar "KI"s, welche problemlos über mehrere Minuten hinweg überzeugender über Messenger kommunizieren können als Menschen (alle Fragen erlaubt) - Überzeugender aka der Korrespondent denkt er spricht mit einem Menschen und nicht einem Computer, während er gleichzeitig mit beiden schreibt, sh. Turing Award.

K7Fan schrieb:
Der Mensch kann seine "Vorprogrammierung" in gewaltigem Umfang modifizieren, umgehen oder ignorieren,
das ist im RL-Szenario ebenso möglich.

K7Fan schrieb:
Auch nicht immer, siehe gezieltes Fasten das teils sogar ueber eine Woche zu irgendwelchen spirituellen Zwecken betrieben wird. Was auch immer man davon halten mag, aber nach den ersten ein bis zwei Tagen verschwindet bei vielen der Hunger weitgehend. Manche nutzen den Zustand dann fuer Mediation o.Ae. .
Die Frage ist, ob das relevant ist um ein autonomes selbsterhaltendes System zu schaffen.

K7Fan schrieb:
Sehr unguenstige Definition, damit ist es der KI problemlos moeglich Menschen zu toeten. Sie muss es entweder schnell genug tun damit das Schmerzsystem der Betroffenen nicht reagiert oder es vorher durch Einsatz von z.B. Betaeubungsmitteln deaktivieren.
Sie koennte "friedlich" eine ganze Stadt mit A-Waffen verdampfen. Hat doch keiner Schmerz empfunden aber dennoch duerfte das kaum unter irgendeine gaengige Definition von Frieden fallen.
Es ist keine Definition, sondern lediglich eine Quantisierung, welche anscheinend noch etwas Verbesserungsbedarf hat. ;
 
new Account() schrieb:
Ist das notwendig um ein Bewusstsein zu haben? Und ist das hinreichend?
Notwendig zumindest bezueglich der Selbsterkennung ja, hinreichend nein.
Selbsterkennung ist zum Beispiel bei vielen Intelligenztests (an Tieren) ein grundlegender Bestandteil.

new Account() schrieb:
Es gibt sogar "KI"s, welche problemlos über mehrere Minuten hinweg überzeugender über Messenger kommunizieren können als Menschen (alle Fragen erlaubt) - Überzeugender aka der Korrespondent denkt er spricht mit einem Menschen und nicht einem Computer, während er gleichzeitig mit beiden schreibt, sh. Turing Award.
Eine zweifelsfrei beeindruckende Leistung aber nichts das der "KI" die " " nehmen koennte.

new Account() schrieb:
das ist im RL-Szenario ebenso möglich.
Gibt es dafuer ein Beispiel welches das in annaehernd menschlichem Umfang beherrscht?
Ist es immer noch auf vorgegebene unmittelbare Belohnung beschraenkt oder kann es inzwischen Wege einschlagen die ueber selbstdefinierte und/oder mittelbare Belohnung fuehren? Bzw. kann es auch Wege einschlagen die zum gegenwaertigen Zeitpunkt der Entscheidung nicht belohnend erscheinen?

new Account() schrieb:
Die Frage ist, ob das relevant ist um ein autonomes selbsterhaltendes System zu schaffen.
Ein autonomes selbsterhaltendes System ist nicht zwingend intelligent. Viele Bakterien sind autonom sowie selbsterhaltend aber wuerden wohl kaum als intelligent bewertet werden.
Abgesehen davon ist das urspruenglich von mir gebrachte Beispiel fuer eine KI nicht relevant sondern diente lediglich als Untermauerung der Aussage dass Nahrungsmangel beim Menschen nicht immer mit Bestrafung einhergeht und die Beziehung zwischen Beschaedigung/Mangel und Bestrafung bei Weitem nicht so einfach ist.
 
Wow! danke für eure Antworten.

Wenn wir einfach ein Glas Wasser in Hand nehmen, koordiniert unser Gehirn in bruch sekunden alle Muskelstruktur ect. damit wir es einwandfrei in Hand nehmen können. d.h. bei erten mal war es sehr sehr schwer und mit der Zeit haben wir es gelernt, was ich damit sagen möchte, das Gehirn speichert das ganze Lebenserfahrung und lernt sehr prompt, was richtig ist und was falsch ist.

Der Mensch hatt "Geist" und das hat "Künstliche Intelligenz" nicht, noch nicht! :-)

Wenn der "Künstliche Intelligenz" ein "Geist" bekommt und alle Lebenserfahrung von ein alten erfolgreichen Mensch die Daten die in sein Gehirn ist erhält, hatt später "Künstliche Intelligenz" auch gefühle wie Menschen und der Mensch 2.0 ist geboren! :-)

Wir haben Technologien, die unser Gehirnleistung nicht dienen kann und wir sind auf "Künstliche Intelligenz" angewisen, weil wir nur ca. %6 unser Gehirn nutzen und die rest ist nicht aktiv, warum auch immer! das weist nur der liebe "Gott".

Bei "Künstliche Intelligenz" gibt es diese beschränkungen nicht, daher wird es irgendwann sehr Mächtig sein und ist von optik her später wie ein Mensch aus als "Mensch 2.0" und das wird auch %100 irgendwann kommen.
 
Miousy schrieb:
Wenn wir einfach ein Glas Wasser in Hand nehmen, koordiniert unser Gehirn in bruch sekunden alle Muskelstruktur ect. damit wir es einwandfrei in Hand nehmen können. d.h. bei erten mal war es sehr sehr schwer und mit der Zeit haben wir es gelernt, was ich damit sagen möchte, das Gehirn speichert das ganze Lebenserfahrung und lernt sehr prompt, was richtig ist und was falsch ist.

Das hat nichts Menschliches. Mein Hund hat auch zu trinken gelernt und weis zwischen richtig und falsch zu unterscheiden. Sonst würde er nicht so traurig dreinschauen, wenn er mal wieder auf den Teppich gek**** hat.

Wir haben Technologien, die unser Gehirnleistung nicht dienen kann und wir sind auf "Künstliche Intelligenz" angewisen, weil wir nur ca. %6 unser Gehirn nutzen

Das ist Quatsch. Kennt man auch unter dem Pseudonym "Zehn-Prozent-Mythos"

Was denkt ihr über "Künstliche Intelligenz" im Jahr 2019? was wird im Jahr 2025 sein?

Derzeit handelt es sich bei der KI, besser AI (denn gerade an der Intelligenz mangelt es) um hoch komplexe Automatisierungen und maschinelles lernen.

Wenn wirklich mal eine Intelligenz erschaffen wird, die den Namen tatsächlich verdient, wird diese höchst wahrscheinlich unter dem Militär eines Landes die Welt erblicken. Man darf gespannt sein.

Ich freue mich aber schon jetzt auf die Utopie der Maschinen - endlich mein eigener Arbeitssklave! :)
 
Zuletzt bearbeitet:
Eure Gehirn kann im Jahr 2019 das ganze nicht verstehen, noch nicht! genauso wie vor paar 100 jahren , haben wir alle gesagt der Erde ist eine "scheibe" und nicht rund! Der "ZEITGEIST" fehlt hier, später wird es alles viel einfacher und präziser, die Nanotransistoren in eine Chipprozessor ist mit derzeitige Technologien zu wenig, damit wir den KI aussreichen kapazität geben können, um selbst alles bei zubringen.

z.B. bei Google.de wird bereits "Künstliche Intelligenz" intensiv verwendet für die Kernalgorithmus der Suchbegriffen und dafür braucht Google acht Fußballplatz nur an hochleistungsservern/Computern, damit das "Künstliche Intelligenz" das ganze Daten bearbeiten kann, nur für Deutschland. Daher wird auch im zukünft anderen Technologien geben, die das ganze Nanotransistoren Revolutionieren werden.

Ein Bakterien, die wir mit unseren Augen nicht sehen können, hat "GEIST" sonst kann er nicht arbeiten und weist nicht wozu er da ist! ;-)

Ein einzige Hochleistungscomputer von heute hat zu viel Leistung, wie vor zwanzig jahren dafür 20 Fußballplatz nur an Hochleistungscomputern gebraucht hätten und heute brauchen wir nur ein!

Genauso wird es auch in zehn jahre sein, die Nanotransistoren in eine Chipprozessor werden viel viel viel kleiner und überwältigen Gigantische Aufgaben, die heute dafür nicht umsetzbar ist, weil wir immer noch Mensch 1.0 sind.
 
Miousy schrieb:
genauso wie vor paar 100 jahren , haben wir alle gesagt der Erde ist eine "scheibe"
Das war 1919, da hat keiner gesagt "Die Erde ist ne Scheibe".
Jeder deiner 3 Beiträge besteht nur aus sinnlos zusammenkopiertem Schwachsinn und klingt als käme er aus dem Google Übersetzer.
Meiner Meinung nach ist das ein Troll-Account.
 
  • Gefällt mir
Reaktionen: florian.
Das Thema wird unter anderem im Buch "superintelligenz szenarien einer kommenden revolution" von Nick Bostrom behandelt. Es ist äußerst schwierig bis unmöglich eine super KI dauerhaft zu kontrollieren, außer man schränkt ihre Möglichkeiten und damit ihren Nutzen extrem ein.

Siehe auch einen Teil im Wiki Artikel:
https://de.wikipedia.org/wiki/Superintelligenz#Kontrollproblem

Aus einer aus Sicht der Menschen falschen oder unzureichenden Wertgebung für die Superintelligenz resultiert das Kontrollproblem. Dieses besteht darin sicherzustellen, dass die Menschheit die Kontrolle über die Maschine behält. Bostrom demonstriert das Problem an folgendem Beispiel: „Stellen Sie sich eine Maschine vor, die mit dem Ziel programmiert wurde, möglichst viele Büroklammern herzustellen, zum Beispiel in einer Fabrik. Diese Maschine hasst die Menschen nicht. Sie will sich auch nicht aus ihrer Unterjochung befreien. Alles, was sie antreibt, ist, Büroklammern zu produzieren, je mehr, desto besser. Um dieses Ziel zu erreichen, muss die Maschine funktionsfähig bleiben. Das weiß sie. Also wird sie um jeden Preis verhindern, dass Menschen sie ausschalten. Sie wird alles tun, um ihre Energiezufuhr zu sichern. Und sie wird wachsen – und selbst dann nicht aufhören, wenn sie die Menschheit, die Erde und die Milchstraße zu Büroklammern verarbeitet hat. Das ergibt sich logisch aus ihrer Zielvorgabe, die sie nicht hinterfragt, sondern bestmöglich erfüllt.“
 
Zurück
Oben