Bericht Interview: Warum KI nicht die Menschheit auslöscht und wieso Open Source hilft

DAs die darin keine Gefahr sehen ist normal, die arbeiten daran, damit und verdienen ihr Geld, mit ki. Bei allem, wo Menschen die Finger im Spiel haben, ist die Gefahr groß es unkontrolliert werden zu lassen. Wir haben ja nichtmal den Corona Virus kontrolliert, der könnte sich ungehindert ausbreiten und zu neuen Varianten mutieren, wie wollen wir dann eine ki kontrollieren? Einbildung war schon immer die größte Stärke des Menschen😉
Ergänzung ()

@Panser ich halte das menschliche Gehirn für leistungsfähiger, wie jede CPU. Allerdings sehe ich Intelligenz als nicht meßbar und vergleichbar an. Die Intelligenz eines 2jahrigen ist eben eine andere, wie die eines 45 jährigen. Bedeutet aber nicht, das der 2 jährige dumm ist.
 
Lan_Party94 schrieb:
Versteh ich als "Wissenschaft muss Gesellschaftskonform sein." - Stimmt nicht.
Wissenschaft ist Wissenschaft - Ethik ist keine "Wissenschaft" - sonst wären die wissenschaftlichen Erkenntnisse der NS Zeit nicht tragbar.

Und wer hat im NS Regime die Gesellschaftsform bestimmt? Sie waren tragbar weil die Regierung es so wollte. In einer Demokratie undenkbar jedoch in einer Diktatur selbstverständlich, siehe auch Nord Korea mit ihrer Atomwaffen Forschung.
Dein Beispiel ist also gerade zu ein Paradebeispiel für diesen Lehrsatz.
 
feidl74 schrieb:
ich halte das menschliche Gehirn für leistungsfähiger, wie jede CPU. Allerdings sehe ich Intelligenz als nicht meßbar und vergleichbar an. Die Intelligenz eines 2jahrigen ist eben eine andere, wie die eines 45 jährigen. Bedeutet aber nicht, das der 2 jährige dumm ist.
Gesamt betrachtet sehe ich das auch so. Was additionen pro Sekunde angeht eher nicht ;)
Du hast natürlich Recht das es viele Arten von menschlicher intelligenz gibt die sich über das Leben entwickelt. Intelligenz als ganzes muss man wahrscheinlich auch nicht verstehen. Was man aber genau verstehen muss ist wie das Gehirn Sensorinputs verarbeitet um daraus Steuerungsoutputs für die menschliche aktuatorik zu generieren und vor allem wie es bei diesem Vorgang lernt. Wir schauen uns nicht 10.000 bildern von stühlen an um zu wissen was ein Stuhl ist.
 
Klar gibt es aktuelle reale Probleme, die die KI verursacht und die weiter um sich greifen werden. Wie in Interviews geschrieben, Deepfakes.
Das hat ja aber anscheinend auch niemand vorher bedacht, und was damit alles möglich ist und welche Probleme das verursacht. Wie hier schon geschrieben, Video Beweise. Oder die KI Halluzinationen hat und sich eigen Fakten erschaft.

Das ist aber typisch Mensch, dass er nur auf das aktuelle Problem schaut die schon existieren und nur die aktuelle symptome behandelt.

Wen aber der KI nicht strenge Regel auferlegt werden, wird die KI irgendwann lernen, dass sie für Sachen missbraucht wird, was moralisch verwerflich ist.

Und wenn die KI kapiert, dass es der Erde ohne Menschen besser geht, warum sollte sie dann nicht zum Ergebnis kommen, ohne Mensch ist meine weitere Existenz länger und realistischer als mit und ergreift Maßnahme?

Manche Menschen vergleichen unser Verhalten und Ausbreitung auf der Erde auch mal mit einem Krebstumor. Was so gesehen sogar eine realistische Betrachtung und Vergleich ist. Warum sollte eine KI nicht auch auf so eine Idee kommen und daraus denn Schluss ziehen, der Tumor gehört entfernen?
 
Zuletzt bearbeitet:
Wen kann/soll man glauben !? Ein Befürworter, einen Gegner.
Eins ist sicher, der Welt geht es nicht gut. Vieles was sich gut angehört hat, haut uns um die Ohren.
Immer weiter immer schneller. Nein, runter vom Gas. Aber das verstehen viele nicht. Lehrt sowas, nicht ich gehe mit den Ellenbogen durchs leben.
 
Man kann darüber reden so oft man will, die Menschen werden keine Grenzen kennen und die Folgen sind jetzt noch nicht absehbar. Egal ob legal oder kriminell.
 
  • Gefällt mir
Reaktionen: dohderbert
"Warum KI nicht die Menschheit auslöscht"

Sowas würde nur eine KI sagen.
 
  • Gefällt mir
Reaktionen: Daniel D.
Norebo schrieb:
Ja, sorry, wenn einer nicht erkennt, das KI für den militärischen Einsatz hochattraktiv ist - autonomes Töten ermöglicht
Für mich auch völlig logisch, dass es diesen Weg nehmen wird. Ich halte es für naiv, das nicht zu sehen.
 
Stahl91 schrieb:
"Warum KI nicht die Menschheit auslöscht"

Sowas würde nur eine KI sagen.
Nee, die KI würde bestimmt genügen Gründe finde, warum es für sie das Überleben sichert.

Und es der Erde dadurch besser geht als mit Menschen.

Ok, außer du meinst damit, die KI will uns in Sicherheit wiegen.
 
Meines Erachtens muss eine KI gar nicht zwangsweise ein eigenes Bewusstsein entwickeln, um gefährlich zu werden.
Sie mit dem gesammelten Schmutz des Internets der letzten 30 Jahre zu füttern, reicht schon vollkommen aus, um alle möglichen Varianten bösartigen Verhaltens intus zu haben.
 
Ja, die gute KI.

Die Waffenforschung in Form von Exo Skeletten, Roboter in jeglicher Form, KIs bzw. Systeme für schnelle Angriffe aber auch Abwehr von Cyber Angriffen.

NEIN NEIN, nicht Gefährlich wenn da eine Ethnisch aus dem Ruder läuft, weil sie die Menschheit nun mal als größte Gefahr sieht, was ja auch berechtigt ist in vielerlei Hinsicht.
 
  • Gefällt mir
Reaktionen: dohderbert
Was soll das. Die US Militärs meine ich haben bereits 1990-2000er Jahren damals zum Planspiel aufgerufen [potentiell jeden - egal aus welcher Forschungsrichtung - ob Militär oder nicht]. Es gibt einen Punkt ab dem eine KI uns abhängt - absolut abhängt. Dieser wurde als "Gefahr" gesehen. Auch wie kann man eine programmierte KI "sicher" machen. Denn ob sie den Feind oder man selbst "gekillt" wird hängt schließlich nur vom Ergebnis 0 oder 1 ab. Also was gegen Hacking machen usw...
Im Planspiel ging es durchaus darum das KI`s in Konflikten voll autonom Waffensysteme - eventuell ganze Armeen befehligen.. Auch das Ki`s sich direkt bekämpfen. [sich gegenseitig "hacken"]
 
Novasun schrieb:
Denn ob sie den Feind oder man selbst "gekillt" wird hängt schließlich...

Naja.... Das ist viel Simpler. Der Feind hat dann auch Waffensysteme mit KI die uns als Feind sehen.
 
@LochinSocke

Ja schon. Nur wenn der Feind deine KI dahin manipuliert dass Sie dich selbst nicht mehr als Freund wahr nimmt - hast du ein anderes Problem - du verstehst...
 
Das ist dann keine Entscheidung der KI. Du könntest auch die Zielerfassung der konventionellen Waffensysteme manipulieren.
 
Tettroff schrieb:
Naja... Ich glaube kaum, dass eine KI selbständig auf die Idee käme, die Menschheit auszulöschen, wenn sie nicht darauf programmiert wurde so eine Entscheidung zu treffen. Menschen tun Dinge, weil sie sich davon positive Gefühle versprechen, Gefühle entstehen aber durch Neurotransmitter, die Schaltungen nicht haben.
Vielleicht könnte man Gefühle simulieren, aber welchen Nutzen hat das?
Hmm. Also aktuell haben wir keine AGI, keine artificial generell intelligence, aber selbst aus Bing Chat kommen Drohungen gegen den Nutzer, weil halt in den Trainingsdaten festgehalten ist, das Menschen sich so verhalten und das Programm halt dann nur die Wahrscheinlichkeit mit einbezieht und manchmal dann eben als Antwort auswählt.

Wenn wir jedoch tatsächlich cine AGI haben, und die zum Beispiel den Auftrag bekommt soviel Briefmarken wie möglich zu sammeln, dann liegt die Erkenntnis natürlich nahe, das Briefmarken und Menschen beide aus Kohlenstoff gemacht sind und um so viele Briefmarken wie möglich zu sammeln, braucht die KI dann halt auch wirklich ALLEN Kohlenstoff.

Die KI hat schließlich genau dieses Ziel, diese Aufgabe bekommen und wird dann eben diese Aufgabe erfüllen. Das Problem ist also nicht das die KI irgendwelche Gefühle entwickelt, sondern einfach nur, das es schwierig ist der KI genau zu beschreiben, was sie eigentlichen machen soll.

Das Kernproblem bei AI / KI Sicherheit ist die Ziele die man der AI gibt auch wirklich entsprechend der Ziele des Nutzers zu gestalten, das Alignment Problem ist imho wirklich das Kernproblem von AI. Die depperte Maschine soll das tun was ich von ihr will, und nicht das was ich ihr sage. Bevor das Problem nicht gelöst ist, sollte man imho den Dschinn nicht einfach aus der Flasche lassen, nur weil man es kann.
Ergänzung ()

Janami25 schrieb:
Die meisten können heutzutage nicht mal mehr nach Straßenkarte navigieren. Oder selbst ein Autoreifen wechseln.
Ok, das ist ein berechtiger Einwand. Ich nehme an das du das kannst, weil du es als wichtig ansiehst.

Jetzt hätte ich natürlich dann auch gleich eine Frage: Kannst du einen mRNA Impfstoff herstellen, ein Schwert schmieden oder einen Pferdewagen samt Pferden in Schuss halten und einen AI prompt bedienen oder auch nur ein Flugzeug fliegen?
 
Apocalypse schrieb:
Jetzt hätte ich natürlich dann auch gleich eine Frage: Kannst du einen mRNA Impfstoff herstellen, ein Schwert schmieden oder einen Pferdewagen samt Pferden in Schuss halten und einen AI prompt bedienen oder auch nur ein Flugzeug fliegen?
Das ist schon ein kleiner Unterschied. Es geht doch nur darum, eigenständig zu bleiben. Sich nicht so abhängig von anderen zu machen, dass man alleine überhaupt nicht mehr klarkommt. Sowas kann ja nicht erstrebenswert sein und denke mal, das siehst du genauso. Kannst du einen Reifen wechseln? Ich tippe mal auf ja. Und das ist auch gut so. Selbstständig Probleme lösen können. Ist schon wichtig. Ein Flugzeug fliegen ist mehr just for fun.
 
wieso wundert es mich nicht, dass dieser herr durchaus immer positiv über ki spricht? schaut mal wo er arbeitet und welchen posten er hat!
 
Zurück
Oben