Wann wird die KI freigelassen?

KI wird jedenfalls solange es reine Software bleibt, niemals eine echte Intelligenz sein koennen wir wir diese fuer uns als Menschen kennen, oder moeglicherweise auch nur verstehen koennen. Oder vielleicht sollte man an der Stelle eher ueber "Bewusstsein" sprechen.

Denn ich bin mir sicher, das der Koerper, bzw. die Signale die er aus der Umwelt erhaelt, absolut essentiell fuer die Entwicklung von Bewusstsein im Menschen ist.
Das Gehirn bekommt jederzeit unglaubliche Mengen an Feedback ueber die Umwelt, nicht nur die dingliche Ebene, noch viel wichtiger, auch ueber die soziale Ebene.

Es gab ja vor vielen Jahren ein paar unruehmliche Experimente, bei denen Kinder komplettisoliert wurden.
Wenn ich mich richtig erinnere wurden diese abgebrochen, nachdem die ersten Kinder gestorben sind. Und auch die ueberlebenden hatten massive Defizite in ihrer Entwicklung.

Ich wuesste nicht wie man das in IT Dimensionen umrechnen koennte, aber der Datenstrom der da dauernd reinkommt, von den Augen, Ohren, Nase, Mund, Haut, der ja auch nur zum Teil wirklich wahrgenommen wird, macht zusammen mit dem ganzen "internen" Kram den das autonome Nervensystem abhandelt, eine Menge aus die ein konventionelles Computersystem noch nicht verarbeiten kann.
Das dann ueber viele Monate, denn es dauert beim Gehirn ja auch eine ganze Weile bis wirklich ein Bewusstsein da ist.
 
@ThomasK_7 Dann behaupte ich, dass du das Problem gar nicht verstanden hast und die Grundlagen des Alignment Problems nicht kennst. Eben so wenig die Unterscheidung von terminalen und instrumentalen Zielen.
Richtig und Falsch sind Werte aussagen. Aber Werte hat KI nicht einfach von selbst. Und ohne Werte hat sie keine Funktion im Sinne einer AGI. Und einfach auf Werte zu setzen wie wir sie evolutionär mitbekommen haben ist das schlimmste was wir machen können. Dann sind wir ganz schnell ausgerottet.

Am besten wirklich mal den Kanal von Robert Milles durchstöbern. Da wird klar, das die Frage wie wir einer mächtigen KI richtig und falsch definieren genau die entscheidende ist. Und das es kein Testen gibt. Das es kein Abschalten gibt. Und das uns so eine KI nahezu zwangsweise täuschen wird und mit allen mitteln verhindert das wir ihr Vorgehen und ihre Absichten verstehen.
 
h00bi schrieb:
(...)Klingt vielleicht übertrieben, aber meiner Meinung nach sind die größten Risiken für die Menschheit (neben der Menschheit selbst) eine KI oder ein mutiertes HIV Virus, welches sich per Tröpfcheninfektion verbreitet.
Das größte Risiko ist m. E. die ND (Natürliche Dummheit), die läuft nämlich überall frei rum.
 
Ich denke, heutige Spitzen-KI ist in der Lage, sich selbstlernend zu verbessern.

Ganz einfaches Beispiel: Definiere der Spitzen-KI die Rechenoperationen + und - und die KI wird für sich die Operationen * und : und auch potenzieren usw. definieren und anwenden, um schneller an Ergebnisse zu kommen. Die Zeiten sind vorbei, wo KI lediglich für Automation steht.
Natürlich ist es ein Problem, die Ergebnisse der KI mit den humanen Werten zu wichten.
Der Mensch behält sich deswegen immer noch das Recht vor, die Ergebnisse der KI nicht zu verwenden.
 
es ist und bleibt die simulation von intelligenz.
gültig iummer nur dann, wenn die situation vorhergesehen wurde.

echte intelligenz hingegen hat als inneren kern das umgehenkönnen mit völlig neuen, vorher unbekannten konstellationen.

das, was als KI verkauft wird, ist eher eine sophisticated database search.

ich lass mich gern vom gegenteil überzeugen, bin aber überzeugt, das nicht mehr zu erleben.
 
  • Gefällt mir
Reaktionen: Optiki und BeBur
@whats4 Dir ist dieses Projekt bekannt? https://openai.com/five/

Das üwrde ich nicht als database search bezeichnen. Ansonsten sind Menschen und Tiere auch nichts anderes, die Datenbank sind unsere Gene + Erfahrungen die difus im Gehirn gespeichert sind...

Gerade bei Insekten wird das klar, nachdem manche von ihnen sofort nach der Geburt fliegen können.
 
  • Gefällt mir
Reaktionen: Pivou
Andi_bz schrieb:
Noch muss man der KI sagen, was richtig und was falsch ist. Der Mensch bildet sich seine eigene Meinung. Entscheidet was falschinformationen sind und was richtig ist(wenn auch nicht 100% ^^)
Wie bildet der Mensch, denn seine eigene Meinung?
Wie findet der Mensch raus, dass man eine Herdplatte nicht anfasst?

Entweder bekommt er es durch einen Menschen gesagt.
Oder er bekommt es durch die körpereigene Sensorik mitgeteilt (Schmerz).
Oder er ist in der Lage von anderen Situationen zu abstrahieren und daraus eine Schlussfolgerung zu machen (kann eine "KI" auch)

whats4 schrieb:
es ist und bleibt die simulation von intelligenz.
gültig iummer nur dann, wenn die situation vorhergesehen wurde.

echte intelligenz hingegen hat als inneren kern das umgehenkönnen mit völlig neuen, vorher unbekannten konstellationen.
Lies dich mal in die Diskussion des "Chinesischen Raumes" ein
https://plato.stanford.edu/entries/chinese-room/#ReplChinRoomArgu
 
  • Gefällt mir
Reaktionen: Pivou
Ja aber die Algorithmen reichen einfach noch nicht. Stimme hier schon zu, dass der PC Rechenaufgabe viel schneller und effiziente lösen kann als ein Mensch. Der Mensch ist eine recht ineffiziente Maschine, wenn man das so sehen will ^^.
Probiert doch einfach Tensorflow Playground. Bei den einfachen Formen kommt man noch mit wenig Neuronen aus, um die Aufgabe zu lösen. Bei der Spirale ist nicht mal die maximale Anzahl ausreichend. (Activation sind unterschiedliche Algorithmen). Das schafft ein 5-jähriges Kind, die KI kommt "noch" nicht ran.

Das nur mit Try&Error(unterschiedlichen Gewichtungen(Bias)). Hier fehlt noch komplett die Kreativität, die ein Mensch haben kann.
 
@Andi_bz Wow, ich habe mir ein Beispiel einer KI angesehen die dem Forschungsstand von vor X Jahren entspricht und habe in meinem 1 Mann wenige Stunden Projekt nur so wenig erreicht. Also kann KI unmöglich mehr.

Mit so einer dämlichen Argumentation kann ich auch sagen sagen, das PKW unmöglich über 200 km/h fahren können. Ich haben meinen VW Up ja letztes Wochenende über die Autobahn gejagt und selbst bergab ging es halt nicht über 180 Sachen.

Das ich ein explizites Gegenbeispiel mit GAN's geliefert habe für die Aussage interessiert dann auch nicht. Müsste man sich ja erst mal einlesen was das überhaupt ist.

@ThomasK_7 Ok, du bestätigst meine Vermutung, dass du die Fragestellung gar nicht verstanden hast. Es geht nicht um die Ergebnisse, sondern um die Ziele die eine KI haben soll. Und wenn wir eine AGI haben, haben wir keine Wahl mehr ob wir Ergebnisse verwenden oder nicht.
Wenn eine KI erst mal so ein Level erreicht hat ist sie uns so überlegen, dass wir nicht mehr sicherstellen können Einfluss auf ihre Grenzen zu haben.
Nur als Beispiel, wenn die erste KI, die superintelligenz erreicht eine ist, die das Ziel bekommen hat Briefmarken zu beschaffen. Wird Sie die Menschheit aussrotten, weil ab einen gewissen Punkt der Kohlenstoff in uns als Rohstoff benötigt wird eine weitere Schicht Briefmarken um den Planeten zu erzeugen.
Welche Aufgabe sollten wir einer KI geben, wenn wir versuchen immer intelligentere Systemen zu haben? Und wie formulieren wir für die KI was für uns als Menschen wichtig ist, damit sie in unserem Sinne handelt?
Wir schaffen es ja für uns nicht unsere Ziele untereinander oder auch nur für uns selbst klar zu formalisieren.

@whats4 Neue unbekannte Konstellationen. Je nach Rahmen können das schon einfache Wegesuchende (Pathfinding) Algorithmen aus den 70ern. Da ist heute KI schon soweit drüber hinaus.
Du willst dich nicht im geringsten überzeiugen lassen, denn hier wurde schon soviel aufgeführt das deine Ansitchen als falsch belegt. Du willst nur gar nicht hinschaun was KI heute eigentlich macht und wie. Oder du willst dir einbilden, das der Mensch das Magisch anders oder besser machen würde.
KI die besser Schach spielt als Menschen hat im übrigen keine Datenbank mit allen möglichen Konstellationen.
Das wäre der Bruteforce Ansatz den wir in den 80ern aufgegeben haben weil das für Probleme der echten Welt nicht gut Skaliert.

@Ranayna Da geht es wiedermal um die so oft beschriebenen schwierige Definition von Bewusstsein. Du erhebst da einfache einen willkürlichen und schwammigen Standard. Wie viel sensorischen Input brauche ich denn um Bewusstsein entwickeln zu können?
Haben Blinde weniger Bewusstsein?
Blinde die auch Taubstumm sind noch weniger?
Gibt es überhaupt wenig oder viel Bewustsein, oder gibt es nur mit oder ohne Bewusstsein?
Und ist menschliches Bewustsein, was auch immer das genau Umfassen mag der einzig sinnvolle Maßstab?

Aber der Thread hier zeigt mal wieder. Je größer die Meinung bei vielen. desto weniger Ahnung und Argumente.
Insbesondere was dann auch Nachweise angeht sich mal mit fachlichen Quellen und Studien beschäftigt zu haben und sich auf diese berufen zu können.
 
Zuletzt bearbeitet:
nuja, es ist nur ein thread in einem forum.
man möge mit verzeihen oder auch ned, aber ich werde den aufwand in engen grenzen lassen, da, wo er hingehört.

es wurden zweiffellos große fortschritte gemacht, trotzdem bin ich der meinung, daß es pure hybris ist, von intelligenz zu sprechen.
aber jeder fortschritt in einem klar umrissenen umfeld, mit klar umrissenen bedingungen. und sehr sehr speziellen bedingungen.

man sollte sich ein anderes wort dafür einfallen lassen, und ned das vorhandene wort umbiegen.
 
whats4 schrieb:
meinung, daß es pure hybris ist, von intelligenz zu sprechen.
Ohne Abgrenzung was du denn mit Intelligenz meinst, das das eine Inhalts leere ansage einer Meinung. Noch dazu wo jeder Punkt den du bisher angeführt hattest als Maßstab für Intelligenz bereits mit einem Beispiel angeführt wurde wo KI diesen bereits erfüllt.

Für mich klingt es sehr danach, dass du den Menschen Gottgemacht als überlegen und unerreichbar siehst. Das Argument warum da so sein sollte sehe ich aber gar nicht.

Und wie so oft, kann jeder eine Meinung haben. Aber bei weitem ist nicht jede Meinung gleich berechtigt oder wertvoll.
 
Was KI heute sehr gut kann ist Generierung von Werken. Texte, Bilder und ähnliches. Weil das am Ende nur komplexe Muster sind die erlernt werden können. Eine KI kann einen super Text über Äpfel schreiben, aber der Text ist am Ende nur ausgefeilte Statistik und erlernte Muster. Die heutige KI kann jedoch niemals lernen, was ein Apfel denn eigentlich ist.
Unsere KIs sind also nicht intelligent im engeren Sinne.

ImHo künstliche neuronale Netze an sich sind schlicht zu simpel vom Ansatz/Paradigma her. Es gibt erste Ansätze die KNN näher an ihr biologisches Vorbild zu bringen, der Name dazu ist mir leider gerade entfallen. Wer weiß vllt wird das ja was in einigen Jahrzehnten.
 
nein, so meine ich das ned.

der begriff an sich ist ned definierbar. ned in seiner gesamtheit.
intelligenz ist ein abstrakter begriff, so wie liebe, mut, etc
und die haben alle eines gemeinsam:
man kann sagen, daß etwas mutig war, aber man kann den mut selber ned abschließend definieren.
eine eigenschaft, die alle abstrakten begriffe teilen.

beispiel: HAL aus "2001" erfüllt sicherlich viele kriteriuen, die man erwarten würde.
aber es scheitert daran, sich über unvereinbare pflichten hinwegzusetzen.
einerseits muß sich HAL um die besatzung kümmern, andererseits ist die mission "wichtiger als alles andere".
und nachdem es das gespräch in der kapsel per lippenlesen belauscht hat, kollidieren diese zwei "main tasks".
und das ist der punkt, an dem die grenzen klar werden.
 
BeBur schrieb:
Eine KI kann einen super Text über Äpfel schreiben, aber der Text ist am Ende nur ausgefeilte Statistik und erlernte Muster. Die heutige KI kann jedoch niemals lernen, was ein Apfel denn eigentlich ist.
So so, was kann den der Mensch mehr? Wir lernen auch nur Muster und haben evolutionäre Heuristiken.

@whats4 Also geht es doch nicht um Intelligenz, sonder um Wert und Ziel Konflikte? Ich meine, die philosophische Tiefe von 2001 ist für Hollywood schon ok. aber das sind keine neuen oder besonders Tiefgreifenden Überlegungen in der Forschung. Da hat man schon etwas Arbeit rein gesteckt um die Probleme zu formalisieren und zu trennen und auf den Punkt zu bringen.
Das soll nciht heissen, das die Probleme gelöst sind, aber das hat nichts mit KI zu tun. Ein Mensch im Kontrollraum hätte die selben Konflikte und HAL ist halt ein klassisches Beispiel für das Alignment Problem von dem ich hier schon mehrfach schrieb. Das hat aber eben so gar nichts mit Intelligenz an sich zu tun.
 
na irgendein halbwegs passendes an vergleich muß ich wohl bemühen...

und ein mensch ist sehr leicht imstande, vorgaben, die sich erledigt haben, zu stanzen.
die geschichte ist voll davon.

ich schmeiss KI und I halt ned in einen topf.
auch ist der vegleich von unserem hirn und einem computer sowie unsere art zu denken mit irgendeiner programmierung topfen. und war immer schon topfen.
 
Zuletzt bearbeitet:
Keylan schrieb:
(...)Aber Werte hat KI nicht einfach von selbst. (...)
Ich kann Deiner Argumentation viel abgewinnen.

Was meinst Du wieviele KIs es geben wird? Ich meine grob unterschieden hinsichtlich der Zielrichtung. Spielen Aspekte wie zivile und militärische Nutzung oder die Nationalität eine Rollen?
 
Keylan schrieb:
Nur als Beispiel, wenn die erste KI, die superintelligenz erreicht eine ist, die das Ziel bekommen hat Briefmarken zu beschaffen. Wird Sie die Menschheit aussrotten, weil ab einen gewissen Punkt der Kohlenstoff in uns als Rohstoff benötigt wird eine weitere Schicht Briefmarken um den Planeten zu erzeugen.
Welche Aufgabe sollten wir einer KI geben, wenn wir versuchen immer intelligentere Systemen zu haben? Und wie formulieren wir für die KI was für uns als Menschen wichtig ist, damit sie in unserem Sinne handelt?

Dazu hätte ich eine eher philosophische Fragestellung (als Laie auf dem Gebiet).
Würde denn eine KI die Superintelligenz erreicht, sich mit dieser Aufgabe begnügen, beziehungsweise nicht irgendwann über diese Aufgabe hinauswachsen? Ein Aspekt des menschlichen Bewusstseins ist, eine Erfüllung zu suchen die über den Selbsterhaltungstrieb der jedem Lebewesen immanent ist, hinausgeht. Jeder Mensch besitzt ein Bewusstsein sowie die Intelligenz, sein Leben oder seine Existenz zu gestalten, auf die eine oder andere Weise, seiner Existenz einen Sinn zu verleihen den jeder für sich selbst definiert und nach Selbsterfüllung zu streben, die ganz unterschiedliche Formen annehmen kann, aber zugleich auch die Fähigkeit seine Ziele gemäß seinem eigenen Erfüllungstrieb neu zu definieren oder zu hinterfragen?

Würde eine KI nicht denselben Aspekt des Strebens nach Selbsterfüllung aufweisen, insbesondere wenn sie eine "Superintelligenz" entwickelt?
Würde sie sich denn mit der Aufgabe, Briefmarken herzustellen, für alle Ewigkeit begnügen beziehungsweise an sie gebunden sein? Keine Fragen nach dem Sinn dieser Aufgabe stellen? Keine andere Aufgaben für sich definieren oder andere Ziele anstreben? Ein Mensch würde kaum bis in alle Ewigkeit Briefmarken herstellen wollen, ohne sich irgendwann die Frage zu stellen, wozu das ganze überhaupt gut sein soll. Oder in den Briefmarken seine ganze Existenz verwirklicht sehen.

Denn wenn es so zutreffen würde und die KI nie über diese eine Aufgabe hinauswachsen würde, wäre es nicht nur eine andere Art von einem Automaten, zwar einem sehr schlauen Automaten, aber nichtdestotrotz einem Automaten dessen Existenz nicht über die eine definierte Aufgabe hinausgeht, vergleichbar mit einem Automatenarm am Fließband im VW Werk, der Türdichtungen fixiert? Und der noch in zwei Millionen Jahren, insofern noch Kohlenstoff überhaupt vorhanden ist, dieselbe Aufgabe, Briefmarken herzustellen, stumpf weiterführt, als seine Schöpfer schon längst von der Bildfläche verschwunden sind?
 
Zuletzt bearbeitet:
Keylan schrieb:
@ThomasK_7Wenn eine KI erst mal so ein Level erreicht hat ist sie uns so überlegen, dass wir nicht mehr sicherstellen können Einfluss auf ihre Grenzen zu haben.
Nur als Beispiel, wenn die erste KI, die superintelligenz erreicht eine ist, die das Ziel bekommen hat Briefmarken zu beschaffen. Wird Sie die Menschheit aussrotten, weil ab einen gewissen Punkt der Kohlenstoff in uns als Rohstoff benötigt wird eine weitere Schicht Briefmarken um den Planeten zu erzeugen.
So so, eine Superintelligenz schafft es also in Deinem Beispiel nicht zu erkennen, wann ihr Ziel erreicht ist, Briefmarken zu beschaffen, also den Bedarf zu decken. :( ;)

Na ich habe eine andere Vorstellung von Superintelligenz.
Meine Superintelligenz würde einfach "beschaffen" mit "geringstmöglichem Aufwand" übersetzen, also Effektivitätsprinzip und gerne auch noch mit Zusatzprämissen wie geringstmöglicher CO2-Aufwand usw. und einfach bereits entsprechend produzierte Briefmarken ordern.

Ich meine, aktuell und mittelfristig operiert eine Spitzen-KI immer noch im Rahmen ihr technisch/materiell vorgegebenen Ressourcen, ist also stets begrenzt und im Vorfeld durch theoretische + praktische Simulationen getestet.

Nehmen wir das sehr gute aktuelle praktische Beispiel von autonomen Fahren.
Du kannst dem Tesla bestimmt befehlen (=also Ziel geben), durch den Teich zu fahren oder auf der Autobahn zu wenden, weil dies jeweils der kürzeste Weg ist, aber die KI wird es nicht ausführen.

Der TE fragt im Eingangspost, wann die KI Bewusstsein haben wird?
Da hilft es schon einmal, sich zu informieren, was Bewusstsein sein soll.

Expertensysteme heutiger Zeit haben die Vernetzung mit diesem Wissen (siehe wikipedialink) und dank Internet und Datenbanken auch schon ziemlich umfassend. Trotzdem können wir sie noch kontrollieren und ich sehe auch keine mittelfristige Gefahr, dass wir diese Kontrolle verlieren.
Der Mensch gibt sich selber ja seine Grenzen auch vor (Höchstwerte CO2 usw.). Genau so kann er dies auch für die KI vorgeben/definieren.
 
  • Gefällt mir
Reaktionen: BeBur
@Keylan Du bringst hier keine Gegenbeispiele die mit KI zu tun haben und bezeichnest meine Argumentation als dämlichen. Ein Beispiel mit einem PKW :volllol:
Auch wenn TensorFlow nicht die neuste Entwicklung ist, basiert das Prinzip immer noch auf Neuronen und Bias.
Du bezeichnest hier auch andere Meinungen weniger wichtig als deine.
Setze dich auf die Ignore liste. Lasse mich gerne belehren so lange es sachlich bleibt. Du schaffst das aber nicht
 
ThomasK_7 schrieb:
Expertensysteme heutiger Zeit haben die Vernetzung mit diesem Wissen (siehe wikipedialink) und dank Internet und Datenbanken auch schon ziemlich umfassend. Trotzdem können wir sie noch kontrollieren und ich sehe auch keine mittelfristige Gefahr, dass wir diese Kontrolle verlieren.
So schauts aus.
Das ist ungefähr so wie wenn man glaubt, dass die Menschen im Fernseher kleine Menschen sein müssen, die da tatsächlich im Gerät sind. Weil, man sieht doch schließlich, dass da jemand ist. So ungefähr verhält es sich mit heutiger KI. Nur weil etwas wie ein Mensch aussieht oder sich so verhält muss das noch lange nicht irgendetwas sein das intelligent ist. Heutige KI ist nur ein kluges Abziehbild.

Neuronale Netze lassen sich grundsätzlich auch ganz gut mathematisch beschreiben. Wir verwenden schließlich Algorithmen wie Back Propagation um die Parameter der Minimierungsfunktion (nichts anderes sind KNN) zu optimieren. Echte Neuronen und Gehirne spielen in einer ganz anderen Liga, davon haben wir keine mathematische Beschreibung.
 
  • Gefällt mir
Reaktionen: whats4
Zurück
Oben