steirerblut schrieb:
Find es gut das die Mitarbeiter bei Google sich dagegen organisieren können und ohne Konsequenzen ihre Meinung ausdrücken können. Genau das sollte in einem modernen Konzern Betriebskultur sein.
Grundlegend ist reine Möglichkeit auf jeden Fall zu begrüßen. Die konkrete Ausgestaltung allerdings verstehe ich nicht. KI in aktiven Waffensystemen, die
ohne menschlichen Operator agiert, ist schon alleine wegen etwaiger Fehleranfälligkeit höchst fragwürdig aber z.B. Überwachungsprojekte, bei denen hinterher auch noch mehrere Personen auf die von der KI vorgefilterten Ergebnisse schauen...da sehe ich kein Problem.
Pauschale Ablehnung führt auch schlichtweg nur dazu, dass es dann jemand anders macht. Im Zweifelsfall auch jemand mit zweifelhafterer Ethik. Und unter Umständen macht es dann insbesondere der Feind vor einem selbst. Das kann man auf gar keinen Fall wollen.
wagga schrieb:
Die Idee ist durchaus gut, die Frage ist ob nicht das Geld mehr lockt und wie das am Ende umgesetzt wird und erfolg hat. Diese Geheimhaltung ist ja allein schon ein Skandal.
adnigcx schrieb:
Moral wird nur so lange hoch gehalten wie man damit Gewinn machen kann.
Flutefox schrieb:
Dont be evil ist seit Jahren aus Googles Manifest verschwunden und wer glaubt
Ich verstehe ganz ehrlich nicht, was z.B. Überwachungsprojekte und Dergleichen mit Moral zu tun haben sollen. Ob nun zig Operator irgendwo im stillen Kämmerchen manuell Bildmaterial, Textmaterial, ... durchgehen ob sie Vorschläge, vorselektiert von der KI, durchgehen spielt doch in der Realität keinen Unterschied.
Die einzig höchst fragwürdige Komponente wären aktive Waffensystem
ohne menschliche Verifizierung. Alles andere sind nur Unterstützungssysteme und passiert sowieso - ob teilautomatisiert oder manuell.
Ich würde vor allem auch umgekehrt mal Fragen: was wenn du Soldaten, Zivilisten, ...
retten kannst, weil die KI Satellitendaten & Co. schneller durchgeht, ein rein menschlicher Prozess aber zu lange gedauert hätte? Oder wenn du beispielsweise den Angriff eines Nachbarlandes noch frühzeitiger vorhersagen könntest? Oder wenn du KI-gestützt eine bessere Cyber- oder Drohnen-Abwehr realisieren könntest?
Die einzig sinnvolle Vorgehensweise ist imho die von Anthropic: aktive Waffensysteme ohne menschliche Verfizierung ablehnen und den Rest annehmen.
Für das US-Militär kann ich nicht sprechen, aber mit der Bundeswehr hatte ich bereits zu tun in KI-Projekten und kann da berichten, dass das Leben von Soldaten und Staatsbürgern an
allererster Stelle steht. Nachfragen und insgesamt das Vorgehen waren bei weitem mehr auf Mensch & Moral zentriert, als man das etwa in der Industrie kennt.
Helpmaster5000 schrieb:
Google macht Google Sachen. Wer hätte das bloß erahnen können?
Weil Google der einzige Konzern ist, der so vorgeht?
Raul99 schrieb:
Richtig keiner will „Diliges proximum tuum sicut te ipsum“
Liebe deinen nächsten wie dich selbst,
Da verkennst du imho die Realität: wollen tut das ganz sicher die absolute Mehrheit - ich würde auch gern in einer Utopie leben und, von der Grundeinstellung her, Pazifist sein. Das bleibt aber eine Utopie und wenn man nicht ausgelöscht werden will, wenn man überhaupt friedlich und auskömmlich Leben möchte, bedarf es einer der tatsächlichen Bedrohungen und Machtverhältnissen deutlich angemessenere Wirtschafts- und Verteidigungspolitik.