TeamViewer Motive 4

News Tödlicher Amoklauf in Tumbler Ridge: OpenAI-CEO räumt Fehler bei Umgang mit ChatGPT-Konto ein

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Abgesehen davon, dass es mal wieder lächerlich ist, ein Werkzeug verurteilen zu wollen:
Was soll in dem Fall der Chatbot schuld sein? Ist die Frage, wo die Schusswaffe herkam, nicht viel interessanter?

Das wirklich interessante an diesem ganzen Vorgang sollte aber sein:
Merken die Leute irgendwann mal. in welchen Abgrund uns diese BigTech- und Cloud-sch*** reißen wird? Das ist doch mal wieder der Beweis, dass jedes Wort, das da eingegeben wird, minutiös überwacht wird. Die Stasi hätte sich das im feuchtesten Traum nicht vorstellen können... Privatsphäre für immer weg..
 
  • Gefällt mir
Reaktionen: the_IT_Guy und racer3
Als ich den Beitrag gelesen habe, ahnte ich schon, was mich in den Kommentaren erwartet. Bin aber froh, dass die Mehrheit hier die Finte der Aktion erkannt hat.

Dieser Fall klingt für mich irgendwie schon zu perfekt, als ob er instrumentalisiert werden sollte. OpenAI hat fast 1 Milliarde aktive Nutzer, da werden monatlich vermutlich Tausende Nutzer gesperrt. Dass jemand, der Amok läuft, einen KI-Account hat, ist heutzutage sehr wahrscheinlich.

Dass über den Fall intern diskutiert wurde, empfinde ich datenschutztechnisch schon als höchst bedenklich. Aber der Account wurde ja vor dem Attentat gesperrt, von dem her haben die internen Schutzmechanismen ja wohl gewirkt.

Diese „Entschuldigung” hat in meinen Augen doppelten Eigennutzen für OpenAI:
Zum einen gute PR und vor allem wieder ein großer Schritt, die Bevölkerung empfänglich für Überwachung zu machen. Und Teil der Staatsüberwachung zu sein, wäre offensichtlich mehr als verlockend.
Wenn jetzt nacheinander alle KI-Anbieter schreien: „Wir hätten es verhindern können, wenn wir dürften”. Sind wir von der totalen Überwachung nur noch ein kurzes Wegschauen entfernt.

Wer die Freiheit aufgibt, um Sicherheit zu gewinnen, wird am Ende beides verlieren. (Benjamin Franklin)
Denn Überwachung zentralisiert die Macht, und „Macht korrumpiert, absolute Macht korrumpiert absolut.“ (Lord Acton).

Zur Klarstellung: Die Tat war schrecklich, und die Opfer echt!
Aber wenn bekannt wird, dass KI Unternehmen solche Fälle melden müssen, werden ALLE Leute überwacht und die Täter nutzen sie dann einfach nicht mehr.
 
  • Gefällt mir
Reaktionen: Nerdpatrol und the_IT_Guy
Bright0001 schrieb:
Sicherlich wird hier gleich alles auf OpenAI drauf hauen, aber: Wollt ihr wirklich, dass OpenAI alle Chats durchforstet und ggf. per Direktleitung an die Polizei weiterleitet?
Ähm, Dir (repräsenrativ für alle, die gleicher Meinung sind) ist schon klar, was ChatGPT macht? Es seine Aufgabe Deine Einfabe zu analysieren. Du brauchst auch nicht alle massenüberwachen. Es reich Risikoflafs fur Einzelanfragen und wenn da zuviel sich ansammelt, kann die gleiche KI, die Deine Eingabe schon analysierte, die Analyse gesammelt durchgehen. Und wenn dann ein Gefahrenpotential vorliegt, läßt man einen Menschen ran. Also ich kann den Einwand nicht verstehen. Geht doch auch keiner zum Steuerberater und sagt, Du darfst aber nur die Punkte einzeln ansehen und mußt wieder vergessen wenn Du nächstes Jahr von mir wieder bearbeitest. Anders gesagt, wenn man mit KI kein Problem hat in Sachen Datenschutz und es daher verwendet, der darf auch kein Problem mit dieser Analyse habe,.
mischaef schrieb:
Hierbei wird aber gerne eine Sache vergessen: Es ist eben die Frage, ob man das mit Google alles hätte herausfinden können. Theoretisch stimmt das. Aber mit welchem Aufwand? In
Genau mein Gedanke. Vor allem weil KI gerne angeführt wird bestimmte Routinen viel schneller und mit weniger Arbeir durchführen zu können. Wenn KI aber mißbraucht wird, zählt das auf einmal nicht mehr.

offtopic Frage: wieso wird bei einer Täterin, die meines Wissens nach auf frischer Tat ertappt wurde, noch mutmaßlich geschrieben? Abgesehen davon, es muß ja einen Täter geben, schließlich gb es eine Tat. Solange kein Personenbezug vorliegt (Lieschen Müller ist die mutmaßliche Täterin), ist Täter oder Täterin ummer korrekt.
 
Und so wird schneller 1984 Realität als wir uns wünschen ...
 
  • Gefällt mir
Reaktionen: racer3
Ich benötige für meine Spiele-Übersetzungen auch gegelegentlich Hintergrundwissen in Waffenrechnik, sonst würde da nur Blödsinn herauskommen. Muss ich deshalb überwacht werden? Über eine KI ist eine Wissenskonzentration durchaus förderlich. Bin ich dadurch gefährlich? Jeder, der eine militärische Ausbildung hat, wird damit zum Gefährder? Lasst die Kuh doch im Dorf. Ihr könnt alles kontrollieren, aber nicht den Entschluss zur Tat. Es würden die Gleichen mit ihrem juristischen Halbwissen aufschreien, wenn unschuldig einer verhaftet würde... Wozu solche "punktgenauen" Regelungen führen, weiß jeder, dass nennt sich dann Bürokratie-Irrsinn...
 
So ohne Details ist es schwer das in Hinsicht auf Privatsphäre oder Dystopielevel einzustufen.
Ein Chatbot hat eben keine Schweigepflicht. Ein Mensch kann übrigens auch nicht allzu sicher einschätzen ob jemand eine akute Gefahr für sich selbst oder andere darstellt. Persönliche Erfahrung und Gespräche mit anderen 'verhaltensabweichlern'. Manche Leute schieben direkt Panik wenn sie mit allgemeinen Suizidgedanken konfrontiert werden und würden Leute gleich zwangseinweisen wenn es nach ihnen ginge. Andere sind bei tiefem ritzen noch relativ entspannt solange die betroffene Person überlegt und kontrolliert handelt. Ist ja nur eine Fleischwunde.
Das ist schon manchmal sehr subjektiv auch wenn da noch Ärzte dahintergeschaltet sind die das kennen (sollten) bevor über z.b. eine psychatrische Einweisung entschieden wird oder Leute ein aggressionsproblem attestiert bekommen weil sie sich auf dem Schulhof physisch(!) gewehrt haben. Das gleiche Spiel mit Chatverläufen, privatunternehmen und der Polizei würde ich nicht haben wollen. Da überwiegt schnell der entstehende Schaden den verhinderten.

Also einerseits will man nicht dass Schüler die zu einem Referat über Hinrichtungen, Folter oder Amokläufe gleich von ihrer Onlinesuchmaschine 'geswattet' werden, andererseits sollte eine allzu konkret wirkende Planung einer Straftat auch nicht gänzlich ignoriert werden wenn eine gewisse Schwelle überschritten wird. Aber ohne details zu den Chatverläufen habe ich zumindest keine Ahnung wo sich dieser fall zwischen den beiden Punkten befindet.

the_IT_Guy schrieb:
Es wurde schon oft von Facebook und auch von OpenAi bestätigt, dass aus Chatverläufen sehr sicher psychische Störungen wie Depression herausgelesen werden können. Und anstatt das dann für Werbung auszuwerten, könnte man Problemlos einen Filter Implemtieren, der die Chats ab einem gewissen Schwellwert von Wortkombinationen abbricht und freundlich Formulierte Anweisungen zu Hilfe Hotlines anbietet.
Also meiner Erfahrung nach wäre das Abbrechen des Chats nicht die optimale Lösung. Wenn man schon depressiv ist hat man eher genug 'nicht zuhören' und abschalten zur auswahl. Man sollte sich imho eher die Mühe machen eine art therapeutische Sub'KI' zu entwickeln die an so einem Punkt übernimmt und die Leute sanft in richtung Hilfesuche leitet. Wenn bei einer klinischen Depression das ganze Umfeld unausstehlich wird ("lächle doch einfach mal!"), oder auf durchzug schaltet und dann auch noch ein Chatbot das gleiche tut, der nicht emotional ist und sonst auch so ziemlich jeden unsinn beantwortet, dann darf man sich nicht wundern wenn das auch in Suizidversuchen endet.
Korrigiert mich wenn ich da falsch liege, aber ich würde denken dass ein Chatbot eher zum zug kommt um sein Herz auszuschütten weil kein Mensch (mehr) verfügbar ist. Also eher in richtung letzte bekannte Alternative geht.
 
Zhenwu schrieb:
Wie viele leben könnten wir retten, wenn wir auf Besteck, Messer und Werkzeuge verzichten. Wieso machen wir das eigentlich nicht?

Von Autos und Leitern will ich gar nicht sprechen.

Also, nicht nur KI permanent überwachen und beim kleinsten Anzeichen Meldung an die Polizei, auch jeden Browser, Bibliotheken Zugang und private Gespräche.
Das alles kann zum Amoklauf führen und Informationen zu diesem Liefern.
Erinntert mich an den Film Minority Report mit Tom Cruise.
 
  • Gefällt mir
Reaktionen: Zhenwu
Schon wieder Messer-Vergleiche :heul:
Zhenwu schrieb:
Komisch, das Küchenmesser ist nicht verboten...
Lauf mal in der Innenstadt mit gezogenem Küchenmesser herum ;)
Zhenwu schrieb:
KI ist nur ein Werkzeug wie das Internet, ein Buch
Aber keines was es in der Bibliothek oder im Buchhandel gibt. Keines was dir Honig ums Maul schmiert falls man über Suizid nachdenkt.

Die negativen Merkmale psychisch labiler Personen im Umgang mit KI wurden immer wieder aufgezeigt, Möglichkeiten entsprechend darauf zu reagieren dürften implementierbar sein wie z.B. die Aufforderung sich an Notfalldienste zu wenden.

Und die, die hier jetzt DaTeNScHutZ jammern: f*ckn serrious? Datenschutz bei einem amerikanischen Ki-Anbieter? Wenn sie könnten würden die auswerten, wann jeder einzelne kacken geht und 5 Minuten zuvor noch Klopapierwerbung ausspielen.
 
  • Gefällt mir
Reaktionen: Alphanerd
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife
Lan_Party94 schrieb:
Die Behörden hätten auch sagen können "Das ist ein ein Amerikaner. Das steht alles unter Meinungsfreiheit.
Es steht längst nicht alles unter Meinungsfreiheit in den USA. Schreib dort mal "We should kill all xyz". Lösch aber deine Geräte bevor die FEDS kommen.

https://theworldwatch.com/videos/16...or-shitposting-about-jews-foids-on-instagram/

 
Calamyt1 schrieb:
Warum steht der Altman nicht vor Gericht?
Naja du willst hier jemanden persönlich vor Gericht sehen...

Calamyt1 schrieb:
Ja klar wenn ich weiß das einer krank im kopf ist und so etwas plant und ich einfach gar nichts dagegen mache ist keiner schuld schon klar. Im bericht stand doch das der Altman von dem typen bescheid wusste und es mussten trotzdem 8 Personen sterben.
Ob er persönlich von dieser Person wusste oder nicht, geht meines Erachtens nicht klar hervor.
Aber das ist auch nicht ganz so relevant wie du vermutlich meinst.
Ein Firmeninhaber, Entwickler, Programmierer, kann nicht persönlich für die Zweckentfremdung des eigenen Produkts belangt werden. Es ist nicht der Sinn und Zweck ChatGPT zum töten von Menschen zu verwenden.
Und nochmal, selbst Waffenhersteller sagen immer wieder, dass sie ja nichts dafür können, wenn Waffen die der Selbstverteidigung dienen, dafür verwendet (Zweckentfremdet) werden Menschen zu ermorden. Also über diesen Hebel wirst du die Hersteller nicht dran bekommen.

Was könnte und sollte meines Erachtens passieren. Es muss eine Regelung eintreten die OpenAI in die Eigenverantwortung nimmt.
Wenn eine Person klar psychisch auffällig Dinge recherchiert, was passiert dann?
Zwei Optionen habe ich quasi in den Raum geworfen.
1. ChatGPT kommuniziert nicht mit Behörden bzw. stößt diesen Prozess intern nicht an, da ChatGPT unter umständen nicht genau zwischen einer Recherche oder einem geplanten Mord unterscheiden kann. ABER es muss intervenieren um einen Verdacht zu härten, ggf. Gegenfragen stellen, die einen geplanten Mord ausschließen. Oder eine Schleife beginnen. Zum Beispiel "du Fragst Sachen, die bekanntlich einem geplanten Mord zuzurechnen sind, ..... Frage ....". Dann muss die Person sich rechtfertigen oder antwortet eben nicht. Im letzteren Fall könnte man überlegen was dann passiert > interne Meldung?
2. ChatGPT meldet bei Verdacht intern psychologisch auffällige Personen. OpenAI muss diese Fälle moderieren/kontrollieren und nach Bewertung selbst an Behörden melden.

Diese prozessualen Vorgänge muss man mitunter gemeinsam erarbeiten. Behörden und Unternehmen.
Wenn die Behörden es auferlegen, heißt es wieder Staatsüberwachung. Wenn OpenAI dies tut heißt es "Datenkrake" und "Verletzung der Privatsphäre".
 
Jaa mehr Macht den Techkonzernen! Zu wenig ist nie gut! Noch nie!
 
  • Gefällt mir
Reaktionen: Ironbutt
Ironbutt schrieb:
Schon wieder Messer-Vergleiche :heul:

Lauf mal in der Innenstadt mit gezogenem Küchenmesser herum ;)
Sind doch genug mit Macheten unterwegs. Und die Messerverbotszonen gibts ja nicht umsonst vermehrt.

Der Punkt ist, wenn KI wegen potenzieller Gefahr überwacht werden muss, dann muss das auch für Messer gelten. Und Bibliotheken genau so. Immerhin gibts da genug Material zum Bauen einer Atombombe
Ironbutt schrieb:
Aber keines was es in der Bibliothek oder im Buchhandel gibt. Keines was dir Honig ums Maul schmiert falls man über Suizid nachdenkt.
Du willst mit "Honig um den Mund schmieren" sagen, dass KI einen motiviert zu springen?
Ironbutt schrieb:
Die negativen Merkmale psychisch labiler Personen im Umgang mit KI wurden immer wieder aufgezeigt, Möglichkeiten entsprechend darauf zu reagieren dürften implementierbar sein wie z.B. die Aufforderung sich an Notfalldienste zu wenden.
Genau so ist es, wenn man mit den falschen Menschen zu tun hat. Tatsächlich gibts da ganz perverse Individuen die einen sogar bestärken...
Ironbutt schrieb:
Und die, die hier jetzt DaTeNScHutZ jammern: f*ckn serrious? Datenschutz bei einem amerikanischen Ki-Anbieter? Wenn sie könnten würden die auswerten, wann jeder einzelne kacken geht und 5 Minuten zuvor noch Klopapierwerbung ausspielen.
Es geht nicht primär um Datenschutz, es geht um Missbrauch durch die Behörden.
Wie ich weiter oben bereits sagte, 1984 und die Gedankenpolizei lässt grüßen.
 
Die Geister, die ich rief...
Und mglw. erst der Anfang.
 
HAse_ONE schrieb:
Solche Vergleiche sind immer so geschmacklos. Willst du also sagen, dass eh so viele Menschen täglich sterben, ein paar mehr dann schon egal sind, auch wenn man sie vielleicht verhindern könnte? Würdest du sowas den Angehörigen auch ins Gesicht sagen?
Würde ich einer Mutter deren Kind überfahren wurde sagen, dass das statistisch im "Rauschen" untergeht? NEIN, weil es geschmacklos wäre denn für die Mutter wäre es ein brutaler, persönlicher Verlust. Aber faktisch für alle nicht direkt Betroffenen eigentlich nicht relevant.

Kurz: Es wird darüber berichtet, weil es die Ausnahme der Regel ist. Die Regel ist: Es sterben tausende täglich im Straßenverkehr. Interessiert nicht wirklich jemanden, oder wann war das bei euch am Küchentisch zuletzt Thema?

Aber wenn eine ein Irrer mit einer KI spricht bevor er seine irre Tat durchzieht ist es etwas über das groß gesprochen wird. Weil es eben NICHT die Regel ist. Weil es neu ist, weil es anders ist. Auch wenn es unter dem Strich kaum echte Relevanz hat.

So simpel sehe ich das, weil ich keine Lust habe mich künstlich zu "empören" weil es sich so gut anfühlt.
 
  • Gefällt mir
Reaktionen: ThirdLife
FX9590 schrieb:
Würde ich einer Mutter deren Kind überfahren wurde sagen, dass das statistisch im "Rauschen" untergeht? NEIN, weil es geschmacklos wäre denn für die Mutter wäre es ein brutaler, persönlicher Verlust. Aber faktisch für alle nicht direkt Betroffenen eigentlich nicht relevant.
In der Fahrrad-Bubble wird durchaus fast jeder Todesfall deutschlandweit diskutiert, sofern andere Verkehrsteilnehmer beteiligt waren (meist Auto/LKW). Und das, obwohl es wesentliche Unterschiede zur Amok-Planung mit KI gibt: das Autofahren hat einen sinnvollen Zweck und fast nie steckt Absicht hinter der Tötung. Sehr oft gibt es Ansätze etwas zu verbessern, darum ist es schon für mehr als ein paar Verwandte des Opfers relevant.
FX9590 schrieb:
Kurz: Es wird darüber berichtet, weil es die Ausnahme der Regel ist. Die Regel ist: Es sterben tausende täglich im Straßenverkehr. Interessiert nicht wirklich jemanden, oder wann war das bei euch am Küchentisch zuletzt Thema?
Die Todeszahlen im Straßenverkehr gingen jahrzehntelang zurück und mit autonomem Fahren und der sehr aktiven Sicherheitsforschung ist grundsätzlich weitere Besserung zu erwarten. Es ist klar, dass man abnehmende Gefahren nicht mehr so diskutiert.
FX9590 schrieb:
Aber wenn eine ein Irrer mit einer KI spricht bevor er seine irre Tat durchzieht ist es etwas über das groß gesprochen wird. Weil es eben NICHT die Regel ist. Weil es neu ist, weil es anders ist. Auch wenn es unter dem Strich kaum echte Relevanz hat.
Es hat Relevanz nicht nur weil es "neu" ist, sondern weil Verbreitung von und Zugang zu fähiger KI immer mehr zunimmt. Und Nachahmertaten spielten im Amokbereich und bei Suiziden auch schon immer eine sehr große Rolle. Man muss also von einer zunehmenden Gefahr ausgehen, gerade weil die Anbieter, Gesetzgeber und Behörden alle überfordert scheinen.

Natürlich, rein zahlenmäßig sind Mord und Co. in den reichen Ländern meist irrelevant gegenüber natürlichen Todesursachen/Volkskrankheiten, aber so tickt halt der Mensch nicht, dass er sich vor dem Gewohnten und Unvermeidbaren fürchtet.
 
racer3 schrieb:
Wer die Freiheit aufgibt, um Sicherheit zu gewinnen, wird am Ende beides verlieren. (Benjamin Franklin)

Blöd nur, dass Franklin das nie gesagt hat.


Aber es ist immer wieder spannend zu lesen, wie wenig Menschenleben den Menschen wert sind. Hier hätte man vermutlich 8 Menschen retten können. Egal... Wer so über andere denkt, braucht sich aber nun wirklich nicht wundern, wenn andere so über einen denken.
 
H3rby schrieb:
Blöd nur, dass Franklin das nie gesagt hat.
Was spielt das für eine Rolle von wem das kommt?
Der Kern der Aussage ist allerdings richtig.
H3rby schrieb:
Wer so über andere denkt, braucht sich aber nun wirklich nicht wundern, wenn andere so über einen denken.
24.000 Menschen sterben Täglich an Hunger.
Hast du dich schon für eine Essenspflicht eingesetzt?
 
  • Gefällt mir
Reaktionen: racer3
Macheten? Wo? Selbst in unserer gefährlichen Bundeshauptstadt ist mir nicht mal ein Taschenmesser begegnet... Außer zum Apfel klein schneiden.
Zhenwu schrieb:
Immerhin gibts da genug Material zum Bauen einer Atombombe
Klar gibts auch auf Wikipedia, die Mathematik dahinter wird schon schwieriger und wenn du ein Verfahren gefunden hast wie man U235 am Küchentisch erbrütet gib Bescheid. ;)
Zhenwu schrieb:
Genau so ist es, wenn man mit den falschen Menschen zu tun hat. Tatsächlich gibts da ganz perverse Individuen die einen sogar bestärken...
Und genau an dem Punkt stelle ich jetzt die Haftungsfrage: wir sind uns einig, wenn ein perverses Individuum eine Person in den Suizid treibt steht das unter Strafe. Wie sieht das mit KI aus? Kein Hammer, Messer, Kugelschreiber überredet/ermutigt einen, eine Straftat zu begehen.
Zhenwu schrieb:
Missbrauch durch die Behörden.
Ernsthaft? Die Menschen lassen bei Ki unternehmen die Hosen runter, aber die Behörden werden zur Gedankenpolizei. Nenene da hab ich deutlich mehr Angst vor Chatkontrolle und Vorratsdatenspeicherung.
 
  • Gefällt mir
Reaktionen: racer3 und Alphanerd
H3rby schrieb:
Blöd nur, dass Franklin das nie gesagt hat.
Danke für den Hinweis. Das Original lautet:
Those who would give up Essential Liberty, to purchase a little temporary Safety, deserve neither Liberty nor Safety. Und es passt in diesem Zusammenhang tatsächlich noch so viel besser.

Es wäre nämlich tatsächlich nur „ein bisschen vorübergehende Sicherheit”!

Deine Unterstellung stimmt einfach nicht. Niemandem hier sind Menschenleben egal! Die Menschenleben sind hier aber ein vorgeschobener Grund, um diese Debatte zu emotionalisieren. Es ist überhaupt nicht absehbar, wie gut präventive KI-Überwachung auf psychisch auffällige Personen funktioniert. Potentielle Täter würden dann überwachte Plattformen einfach meiden.
Viele Amokläufer waren schon vorher polizeibekannt, aber auch die konnten es nicht verhindern. Oder willst du jeden, der ein abnormes Verhalten zeigt, präventiv wegsperren?

Es ist jedoch eindeutig absehbar, wie die totale Überwachung den Mächtigen in die Karten spielt. Dann geht es wirklich um Menschenleben, das haben wir dann aber nicht mehr in der Hand!
Alle haben gewarnt vor der totalen KI-Überwachung und jetzt reicht ein Strohmannargument, das Leute wie du sie einfordern. Das macht mir wirklich Angst.

Und genau, weil ich für Menschenleben bin, stehe ich auch für die Freiheit ein. Wenn du beobachtet und unterdrückt werden willst, kannst du gerne in ein Land deiner Wahl gehen. (aber auch nur weil du hier die Freiheit dafür hast!)
Die Freiheit ist wie die Luft zum Atmen, so lange genug davon da ist, weißt du sie nicht zu schätzen!
 
  • Gefällt mir
Reaktionen: the_IT_Guy und Zhenwu
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben