Robotisierung eine ernsthafte Gefahr?

Status
Für weitere Antworten geschlossen.

Kaiserjäger

Banned
Registriert
Okt. 2013
Beiträge
249
In unserem Zeitalter gibt es keine Kriege ganzer Nationen, aber sicherlich Schauplätze, die ähnlich sind und es zu meist nicht mehr, um Konflikte geht wegen Territorialanspruch, sondern der Ausbeutung der vorhandenen Rohstoffe und die Geldgewinnung dadurch. Das Produkt dieser neuen Form sind Kleinkriege mit enormen Zahlen von Zivilopfer und Schaden an der ganzen Infrastruktur des betroffenen Landes, dies soll jetzt durch noch präzisiere Maschinen verhindert werden, aber welchen Preis werden die Menschen dieses Mal zahlen.

Erst vor Kurzem haben die U.S.A angekündigt die Kompanien die aus 4000 Soldaten bestehen auf 3000 zu kürzen und mit Transportroboter aufzuwerten, aber wenn dieser Schritt des Transportes vollzogen ist, wie lange dauert es dann bis die Warenbeschaffung und Verteilung nicht mehr genügt und die Einheiten durch intelligente Maschinen ersetzt werden die ein Vielfaches stärker und tödlicher als ein Mensch es ist sind.

Die Zeit wird noch kommen die auch gefürchtet ist. Bis jetzt sind wir mit Drohnen, die Israel, U.S.A und jetzt auch China herstellt, in der Lage per Knopfdruck Menschen auszuschalten, was ist aber die Gefahr, wenn Maschinen das alleine bald auch können. Dies hat ja auch schon lange nichts mehr mit Sci Fi zutun, denn die Technologie wird zurzeit dafür entwickelt und ist auch wie bei Boston Dynamics schon vorhanden, es muss nur mehr optimiert werden. Als bestes Beispiel der Geschützturm von Samsung der alle Menschen in einem Radius tötet die keine ID besitzen somit ein Feind sind.

Zusätzlich wird der Computer bis 2040 laut der Transistor Regel und auch einen Bericht bei Spiegel das menschliche Gehirn in seiner Leistungsfähigkeit übertreffen und was hält Maschinen die selbst denken davon ab sich gegen die eigenen Entwickler zu wenden.

Sollte auch dies nicht der Fall sein, wie könnte eine Maschine in einem Krieg Zivilist und Feind auseinanderhalten, solange alles nicht voll ausgereift ist.


Was für eine Meinung habt ihr? Was hält ihr davon, sollte der Mensch auf manche Fortschritt verzichten, um Missbrauch zu verhindern, der sehr viel kosten kann?
 
Zuletzt bearbeitet:
Der Spiegel hat da sicher mal wieder schönen Quatsch erzählt...
Moores Law wurde bereits jetzt schon außer Kraft gesetzt, die Verdopplung der Leistungsfähigkeit alle 2 Jahre kann nicht mehr erreicht werden, zumindest nicht mit silizium-basierter TTL.

Und EGAL, wie performant ein Prozessor ist, INTELLIGENT ist er deshalb noch lange nicht. Von der Common Sense Logic sind wir noch genauso weit entfernt wie in den 60ern. Du hast nur schnellere Vollidioten als früher.

Und das Geschütz? Ach komm, stecks dir an den Hut.
Die innerdeutsche Grenze wurde mit Selbstschussanlagen gesichert, das Ding ist nicht mehr. Tatsächlich kann man ein vergleichbares System mit ner Webcam, nem Laptop, n paar Arduino-Motoren und nem NERF-Spielzeug-MG bauen.
 
@Onkelhitman
Danke für die Links, das Thema sollte darauf abzielen aber auch die aktuelle Situation bewerten nicht nur die Zukünftige, da in den anderen Threads eine andere Situation vorhanden ist, eben dieses, das Roboter zuerst als zivilnützliches Projekt entwickelt werden und erst dann falsch genutzt. Zurzeit ist es aber eher so, dass nur in der Militärtechnik investiert wird oder hier Jahr für Jahre große Erfolge erzielt und das Nutzen von Robotik für den normalen Gebrauch total verkümmert ist und nicht einmal annähernd so viel Aufmerksamkeit und Finanzen erhält.

Es geht auch im anderen Thread darum, wie sich die Gesellschaft verändert, hier wie sie durch Roboter in Gefahr kommt und eine neue militärische Bedrohung darstellt.

Und das Geschütz? Ach komm, stecks dir an den Hut.
Die innerdeutsche Grenze wurde mit Selbstschussanlagen gesichert, das Ding ist nicht mehr. Tatsächlich kann man ein vergleichbares System mit ner Webcam, nem Laptop, n paar Arduino-Motoren und nem NERF-Spielzeug-MG bauen.
Dieser kann aber nicht Feinde auf 2km Entfernung töten und Fahrzeuge mit einer Äquivalenz von 50mm Stahl durchdringen und eigene Einheiten identifizieren ohne das jeder 2. tot ist.

Und EGAL, wie performant ein Prozessor ist, INTELLIGENT ist er deshalb noch lange nicht. Von der Common Sense Logic sind wir noch genauso weit entfernt wie in den 60ern. Du hast nur schnellere Vollidioten als früher.
Vollidioten die rücksichtslos und noch schneller töten...
 
Zuletzt bearbeitet:
Mal im ernst, wenn du Angst vor Robotern hast, wie hoch ist deine Angst dann vor Atomwaffen?

Ein Roboter ist gar nichts, es kommt auf die zugehörige, hinter dem Roboter stehende Großmacht an. Man sollte also eher vor den Ländern der Welt Angst haben, als vor den Maschinen selbst. Bist die komplett autark ohne Mensch auskommen und den daher vernichten ist weder im Sinne der Entwickler, noch Sinne der Wirtschaft. Daher so gut wie nicht praktikabel es ohne ausreichende Sicherung zu bauen.

Das heißt, die aktuelle Situation erlaubt es immer noch den Programmierern einzugreifen. Ein völlig autonomer Roboter wiederum würde sich das nicht gefallen lassen, er wäre aber auch so programmiert, dass er sich das nicht gefallen lässt. Daher die eigentliche Frage: Wann passiert das erste Unglück mit einem missglückt programmierten Roboter? Und die Antwort kann ich dir auch geben: Keiner wird das jemals erfahren, denn das sind Militätgeheimnisse und die bleiben unter Verschluss. Eher wird einer auf dem Totenschein stehen haben: "Von einer Dampfwalze überrollt."

Wir wissen ja zum Teil gar nicht erst, was es noch so alles für Spielereien gibt. Und das Militär ist ein guter Auftraggeber mit fast unerschöpflichen Geldressourcen. Leider nutzten die das Zeug dann auch genau aus den Gründen....
 
Vor Atomwaffen ist meine Furcht ziemlich gering, da die Menschheit im Kaltenkrieg bewiesen hat, dass sie dumm ist, aber nicht so um ganze Staaten für immer und ewig unbewohnbar zu machen, da es ja dann nicht mehr möglich wäre Kapital aus dem Grund zu gewinnen. Roboter müssen ja nicht unbedingt schlau sein oder auf dem Level des Menschen für autonomes Töten genügt es aber in kürzester Zeit, wenn es in diesem Tempo so weiter geht.

Natürlich ist auch die Macht, die solche Geräte verwenden schuld, aber selbst bei einem Verbot von einfachen Drohnen würden die Kriegstreiber namens U.S.A sicherlich nicht daran halten, denn wenn man bedankt ihre Kriege haben seit dem 2. Weltkrieg mehr Zivilisten das Leben gekostet als gegnerische Soldaten und mit Roboter würde es nochmals zunehmen.
 
Naja es reicht schon, wenn die Roboter alle nicht mehr funktionieren würden für nen GAU. Nehm nur mal an, dass bald die Geräte (bald im Sinne von Jahrzehnten) vernetzt sind. In den USA ist das schon zum Teil so, dass Kühlschränke und der ganze Klumpatsch mit Strom und Handyapp schaltbar sind. Und jetzt schleus da mal einen Virus rein. Ab geht der Spaß. Wenn das immer mehr wird, dann wird es auch immer unsicherer. Machen das dann Supermärkte um vielleicht Personal zu sparen (indem sie wissen wo welches Gefriergut liegt etc. etc.) dann könnten findige Programmierer einen massiven Schaden anrichten ohne generell irgend eine Absicht zu haben außer Spaß an der Sache.

Du kannst auch einen Kettensägen-Roboter bauen und programmieren. Aber ich bezweifel doch, dass so etwas eingesetzt wird. Die Gegenseite hat ja dann auch so Dinger und dann kommts zu nem Robot-War.

Ein Verbot bringt eh nichts, wenn sich keiner hält. Oder eher: Wo kein Kläger, da kein Richter. Das mit dem Rest ist erstmal Themenfremd wer wen wann getötet hat.

Das heißt ansich, dass nicht die Roboter die Gefahr sind, sondern eben der Missbrauch dieser zu solchen Massenvernichtungszwecken. Was wiederum Atomwaffen bedeutet. Scheitern wirds erst einmal nur an der Größe der Roboter bzw. deren Energiequelle. Oder es wäre so wie in dem Film, wie hieß er noch.... da waren so Kampfroboter Atombetrieben. Aber selbst die wurden von Menschen gesteuert. Also ist ein großes Problem noch die Energiezufuhr der Roboter. Öl? Gas? Atom? Hm.
 
Kaiserjäger schrieb:
Dieser kann aber nicht Feinde auf 2km Entfernung töten und Fahrzeuge mit einer Äquivalenz von 50mm Stahl durchdringen und eigene Einheiten identifizieren ohne das jeder 2. tot ist.
Also das Making Of einer Nerf Autocannon, das ich mal gesehen habe, hatte eine ziemlich gute Friend/Foe-Erkennung. Selbige war hier nur rein optisch, aber hey: das Teil hat jemand im eigenen Wohnzimmer mit Hardware für vielleicht 200€ gebastelt.... und es war ein Spielzeug.
Doch, du kannst das alles vergleichen. Denk mal nicht, dass diese aktuell entwickelten Autocannons was Besonderes sind. Die F/F-Erkennung erfolgt halt per Funk, statt optisch (ist sicherer, aber viel teurer). Statt NERF-Schaumstoff verschießt es Blei. Und? Was solls.

Kaiserjäger schrieb:
Vor Atomwaffen ist meine Furcht ziemlich gering, da die Menschheit im Kaltenkrieg bewiesen hat, dass sie dumm ist, aber nicht so um ganze Staaten für immer und ewig unbewohnbar zu machen
Das Prinzip des Rogue State hast du nicht begriffen, oder? Was kümmert es Pakistan, ob es Indien unbewohnbar macht? Hauptsache erst einmal ne Nuke drauf geworfen.
Und spätestens wenn wir jenseits von Nationalstaaten hin zur aktuell tatsächlichen Bedrohungen, kleine Splittergruppen, gucken: Was kümmert es einen Selbstmordattentäter, ob er mit TNT, C4 ner Schmutzigen Bombe oder einer vollständigen Nuke drauf geht?
ABC-Waffen sind nichts für die großen, etablierten Nationalstaaten. Für kleine Rogue States sowie Terrorgruppen sind solche Dinger hingegen der absolute Traum. Stell dir einen Taliban-Selbstmörder mit ner Flasche Zyklon B vor, der sich einer Besuchergruppe im Kölner Dom anschließt. Oder noch schlimmer: statt eines C nimmt er einen B-Kampfstoff, z.B. Ebola.

Roboter müssen ja nicht unbedingt schlau sein oder auf dem Level des Menschen für autonomes Töten genügt es aber in kürzester Zeit, wenn es in diesem Tempo so weiter geht.
Nein, sie sind nicht autonom. Sie sind fremdbestimmt. Ein Programmierer hat ihnen gesagt, was sie töten sollen und was nicht. Sie sind wie menschliche Soldaten, nur ohne all die Nachteile wie Gewissen, Verpflegung, Informationsverlust durch Folter,...

Natürlich ist auch die Macht, die solche Geräte verwenden schuld, aber selbst bei einem Verbot von einfachen Drohnen würden die Kriegstreiber namens U.S.A sicherlich nicht daran halten
Jaja... irgendwie wusste ich, dass DAS Argument jetzt kommt. Die bösen, bösen USA. Immer druff, ist ja im Trend. Bullshit!
Denk mal von 12 bis Mittag, dann wirst du erkennen, welchen Vorteil Drohnen bieten und vor allem, was die militärische Drohnen-Forschung für zivile Optionen eröffnet hat. Zivil hätte niemand Drohnen entwickelt, mit denen man Verschüttete in Erdbebengebieten bergen kann. Da steckt kein Geld drin. Aber wenn 90% der Forschung schon fürs Militär erledigt wurden...

Onkelhitman schrieb:
Du kannst auch einen Kettensägen-Roboter bauen und programmieren. Aber ich bezweifel doch, dass so etwas eingesetzt wird. Die Gegenseite hat ja dann auch so Dinger und dann kommts zu nem Robot-War.
Ich verweise mal auf die deutsche Version von C&C2 RA1....
Tatsächlich könnte Roboter-Krieg gar nicht so dumm sein. Sollen sich die Nationen doch eine Materialschlacht mit Maschinen liefern, bei dem aber keine Menschen in blutige Fetzen geballert werden.
Aber am Ende würde man wohl einfach das "Droiden-Kontrollschiff" sprengen und fertig.

Ein Verbot bringt eh nichts, wenn sich keiner hält. Oder eher: Wo kein Kläger, da kein Richter. Das mit dem Rest ist erstmal Themenfremd wer wen wann getötet hat.
Ich sag nur "Haager Landkriegsordnung". Die Hälfte der Regeln da ist weitestgehend akademisch.

Was wiederum Atomwaffen bedeutet.
Sind ne gute EMP-Quelle -> ideal gegen Roboter.

Scheitern wirds erst einmal nur an der Größe der Roboter bzw. deren Energiequelle.
Ich stell mir grad vor, wie ein Terminator erst einmal für 10 Stunden an die Ladestation geht. Krieg geht später weiter, hab grad Hunger....
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben