News Tödlicher Amoklauf in Tumbler Ridge: OpenAI-CEO räumt Fehler bei Umgang mit ChatGPT-Konto ein

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.443
  • Gefällt mir
Reaktionen: DirtyHarryOne, aid0nex, Maggolos und eine weitere Person
Sicherlich wird hier gleich alles auf OpenAI drauf hauen, aber: Wollt ihr wirklich, dass OpenAI alle Chats durchforstet und ggf. per Direktleitung an die Polizei weiterleitet?
 
  • Gefällt mir
Reaktionen: Tera_Nemesis, ascer, DirtyHarryOne und 16 andere
Ich bin sprachlos. Man wusste also davon und hätte 8 Menschen das Leben retten können hat es aber nicht gemacht weil? .... weil weiß keiner.
Weil man die Daten lieber für seine Ki verwendet hat?
Warum steht der Altman nicht vor Gericht?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: joel
darauf legen, mit allen Regierungsebenen zusammenzuarbeiten, um sicherzustellen, dass so etwas nie wieder passiert
Meh, mag ich nicht. Das macht die ganze Chatbot-Geschichte datenschutztechnisch noch viel schlimmer, als sie gerade schon ist. In meinen Augen darf es in Rechtsstaaten nicht passieren, dass die Sicherheitssysteme privater Firmen im Umgang mit privaten Nutzerdaten Entscheidungen treffen und dem Benutzer dann noch die Behörden ins Haus schicken.
 
  • Gefällt mir
Reaktionen: Tera_Nemesis, ascer, DirtyHarryOne und 6 andere
Mir tun die Opfer leid, aber den Betreibern kann man keine Vorwürfe machen. Woher wollen die wissen, wie ernst das ist? Auch ich habe am Anfang getestet, wie weit KI geht und wo die Grenzen sind.
 
  • Gefällt mir
Reaktionen: Tera_Nemesis, aid0nex, bobitsch und 5 andere
Was machen eigentlich zukünftig Autoren, die für ihren Horror-Roman recherchieren wollen?
Kommen die dann vorsorglich ins Gefängnis?
 
  • Gefällt mir
Reaktionen: Tera_Nemesis, aid0nex, FX9590 und 3 andere
Ob OpenAI da wirklich eine Schuld trägt weiß ich nicht. Es gibt sehr sicher viele "bedenkliche" Chatverläufe umd Menschen schreiben und reden oft weit mehr als die allermeisten dann wirklich jemals zu tun bereit wären. Mich würde eher der genaue Grund für die Sperrung interessieren, aus den internen Gründen dafür könnte man vermutlich am besten einschätzen ob man wirklich etwas unterlassen hat. Oder einfach ein Trigger zuviel aktiviert worden ist.
 
  • Gefällt mir
Reaktionen: Karl S.
Ich finde eher schon grusselig, dass der Chat überhaupt überwacht wurde.

So tragisch dieses Ereignis ist. Alle Informationen hätte er auch mit Google rausbekommen können.
Oder gar mit realer Recherche. Wer einmal den schrecklichen Beschluss für so eine Tat gefasst hat, findet Mittel und Wege.

Wie in 90% der Fälle wird nicht nach den Gründen gesucht, wieso der Mensch diese Tat begangen hat und warum er keine Hilfe bei seinen offensichtlichen Problemen hatte. Sondern es wird der einfache Weg gegangen "böse Ki ist schuld"
Wie bei den ganzen "Killerspielen"
 
  • Gefällt mir
Reaktionen: aid0nex, slow_snail, racer3 und 4 andere
Bright0001 schrieb:
Wollt ihr wirklich, dass OpenAI alle Chats durchforstet und ggf. per Direktleitung an die Polizei weiterleitet?
Machen die doch sowieso.
"Darin sei das Potenzial für reale Gewalt bereits früh erkennbar gewesen, weshalb das Konto der mutmaßlichen Täterin auch gesperrt wurde. OpenAI versäumte es jedoch, die zuständigen Behörden zu informieren, um den Anschlag möglicherweise noch verhindern zu können."

Also haben die das gewusst, nur die Polizei nicht informiert.
Du glaubst doch nicht, dass die Inhalte nicht sowieso für die KI genutzt werden.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP... und Slim.Shady
the_IT_Guy schrieb:
So tragisch dieses Ereignis ist. Alle Informationen hätte er auch mit Google rausbekommen können.
Hierbei wird aber gerne eine Sache vergessen: Es ist eben die Frage, ob man das mit Google alles hätte herausfinden können. Theoretisch stimmt das. Aber mit welchem Aufwand? In welcher Zeit? Und hätte man im Netz wirklich alles gefunden? Oder überall nachgeschaut?

Mit KI ist das vollkommen anders, man bekommt im Grunde alles vorgekaut auf dem Silbertablet serviert. Ob solche Menschen die Zeit unter Google "durchgehalten" hätten, steht auch auf einem anderen Blatt.

Daher sind solche Argumente in meinen Augen mit Vorsicht zu genießen.
 
  • Gefällt mir
Reaktionen: Kenshin_01, CeeSA und the_IT_Guy
the_IT_Guy schrieb:
Ich finde eher schon grusselig, dass der Chat überhaupt überwacht wurde.

Genau das!

Wie schon jemand anderes schrieb… was ist, wenn ich für einen Thriller-, Horrorroman recherchiere, Gedankenspiele etc. durchgehe?

Immerhin ist das „Gespräch“ mit einem LLM etwas sehr intimes / privates.

Und Menschen denken sehr viel, ohne das davon etwas bei den meisten jemals relevant für Handlungen wird.
 
  • Gefällt mir
Reaktionen: FX9590, racer3 und the_IT_Guy
Calamyt1 schrieb:
Ich bin sprachlos. Man wusste also davon und hätte 8 Menschen das Leben retten können hat es aber nicht gemacht weil? .... weil weiß keiner.
Weil man die Daten lieber für seine Ki verwendet hat?
Warum steht der Altman nicht vor Gericht?
Wovon wusste man genau? Das eine Person ganz konkret vorhat 8 Menschen zu töten?

Erstens wissen wir nicht genau, was man an Stelle von OpenAi genau wusste. Dazu ist diese News viel zu dünn.
Zweitens, selbst wenn OpenAi etwas wusste, werden die genau so wenig verklagt wie man es mit einem Waffenproduzent tut, insofern die Täterin sich hier legitime aber im Sinne der GPT-Richtlinien grenzüberschreitende Informationen beschafft hat.
Du kannst auch vehement Infos aus GPT rausquetschen wollen die zum Zwecke einer Recherche erhoben werden aber dennoch permanent gegen die Richtlinien verstoßen. Wird man dann irgendwann gesperrt wenn man es „übertreibt“? Ich hab es nicht getestet und kann das nicht beurteilen.

Meine Gedankengänge dazu:
Ob ich es gut finden würde, wenn Mechanismen im Umgang mit einem LLM, zum Kontaktieren der Behörden führen könnten? Da tue ich mich ehrlich gesagt schwer mit.

Einerseits, wenn die Mechanismen absolut zielsicher sind. Was hieße das u.U.
Das ChatGPT womöglich zu einem Medium wird, welches potenzielle Straftäter identifiziert? Und was wenn es mal falsch liegt sich aber die Behörden blind darauf verlassen?

Im Anbetracht dessen würde ich es vermutlich eher gut heißen, wenn ChatGPT von sich aus vehementer versuchen könnte zu intervenieren.
Wobei ich dafür vermutlich von jedem Psychologen in Verbindung mit Tötungsdelikten gelyncht werde weil eine AI kein vollwertiger Psychologe sein sollte/sein kann?

Wie man es dreht und wendet. Der Umgang mit LLMs in diesem Zusammenhang ist alles andere als Trivial.
 
  • Gefällt mir
Reaktionen: racer3, the_IT_Guy und Sturmflut92
Calamyt1 schrieb:
Ich bin sprachlos. Man wusste also davon und hätte 8 Menschen das Leben retten können hat es aber nicht gemacht weil? .... weil weiß keiner.
Weil man die Daten lieber für seine Ki verwendet hat?
Warum steht der Altman nicht vor Gericht?
Weil die Gesetze und Richter nicht so Kurzsichtig sind wie du. ;)

Ob er das nun auf Papier plant und nur die recherche online macht und länger braucht oder es schnell mit der KI macht.
Ich seh hier niemanden in einer Schuld oder Pflicht.

Man hätte ja auch Kryptisch drum her rum reden können mit beispielen die dann ein Täter auf die reale welt anwendet. Wer wäre da schuld? Weiterhin nur der Täter.
 
  • Gefällt mir
Reaktionen: racer3 und ThirdLife
Calamyt1 schrieb:
Ich bin sprachlos. Man wusste also davon und hätte 8 Menschen das Leben retten können hat es aber nicht gemacht weil? ....
Wie viele leben könnten wir retten, wenn wir auf Besteck, Messer und Werkzeuge verzichten. Wieso machen wir das eigentlich nicht?

Von Autos und Leitern will ich gar nicht sprechen.

Also, nicht nur KI permanent überwachen und beim kleinsten Anzeichen Meldung an die Polizei, auch jeden Browser, Bibliotheken Zugang und private Gespräche.
Das alles kann zum Amoklauf führen und Informationen zu diesem Liefern.
 
  • Gefällt mir
Reaktionen: racer3
TeaShirt schrieb:
Weil die Gesetze und Richter nicht so Kurzsichtig sind wie du. ;)

Ob er das nun auf Papier plant und nur die recherche online macht und länger braucht oder es schnell mit der KI macht.
Ich seh hier niemanden in einer Schuld oder Pflicht.

Man hätte ja auch Kryptisch drum her rum reden können mit beispielen die dann ein Täter auf die reale welt anwendet. Wer wäre da schuld? Weiterhin nur der Täter.
Ja klar wenn ich weiß das einer krank im kopf ist und so etwas plant und ich einfach gar nichts dagegen mache ist keiner schuld schon klar. Im bericht stand doch das der Altman von dem typen bescheid wusste und es mussten trotzdem 8 Personen sterben.
Zhenwu schrieb:
Wie viele leben könnten wir retten, wenn wir auf Besteck, Messer und Werkzeuge verzichten. Wieso machen wir das eigentlich nicht?

Von Autos und Leitern will ich gar nicht sprechen.

Also, nicht nur KI permanent überwachen und beim kleinsten Anzeichen Meldung an die Polizei, auch jeden Browser, Bibliotheken Zugang und private Gespräche.
Das alles kann zum Amoklauf führen und Informationen zu diesem Liefern.
Dafür gibt es gesetze?
Waffen gesetze gibt es damit nicht einfach ein jeder eine bekommt. Sieht man ja was in den USA ist wo jeder depp im Wall Mart eine waffe kaufen kann.
Zum autofahren brauchst du einen führerschein und wenn du andere damit gefährdest oder sogar tötest wirst du auch bestraft. etc. etc. gibt tausende beispiele dazu.
Es gibt genug Produkte die einmal jemand erfunden hat die verboten sind weil sie einfach zu gefährlich sind.
Wieso kann es kein gesetz geben das wenn jemand mit deiner Ki eine straftat begeht du zur rechenschaft gezogen werden kannst?
Wenn du zb. auf Youtube oder irgendeiner seite dir anschaust wie man selber Waffen macht und damit töten kann werden Youtube oder der besitzer der Seite auch probleme kriegen.
Wieso kann das bei der Ki nicht auch so sein?
 
  • Gefällt mir
Reaktionen: Darken00
Calamyt1 schrieb:
Dafür gibt es gesetze?
Eben nicht und zurecht.
Calamyt1 schrieb:
Waffen gesetze gibt es damit nicht einfach ein jeder eine bekommt. Sieht man ja was in den USA ist wo jeder depp im Wall Mart eine waffe kaufen kann.
Ja, und bei uns sind diese gesetzte schärfer. Dennoch kommt es auch zu tödlichen Schussopfern.
Calamyt1 schrieb:
Zum autofahren brauchst du einen führerschein und wenn du andere damit gefährdest oder sogar tötest wirst du auch bestraft. etc. etc. gibt tausende beispiele dazu.
Es gibt genug Produkte die einmal jemand erfunden hat die verboten sind weil sie einfach zu gefährlich sind.
Komisch, das Küchenmesser ist nicht verboten...
Calamyt1 schrieb:
Wieso kann es kein gesetz geben das wenn jemand mit deiner Ki eine straftat begeht du zur rechenschaft gezogen werden kannst?
Weil mit KI keine Straftat begehen kann.
Liest du auch was du da schreibst?
KI ist nur ein Werkzeug wie das Internet, ein Buch oder ein Teppichmesser.
Mit all den Dingen kann ich ein Attentat vorbereiten und begehen. Die ausführende Hand ist immer der Mensch.
Calamyt1 schrieb:
Wenn du zb. auf Youtube oder irgendeiner seite dir anschaust wie man selber Waffen macht und damit töten kann werden Youtube oder der besitzer der Seite auch probleme kriegen.
Nö, gibt genug Videos von Bastlern die Schleudern mit tödlichen Eigenschaften bauen. Sind immer noch online
Calamyt1 schrieb:
Wieso kann das bei der Ki nicht auch so sein?
Nochmal, dann muss es Kontrollen in Bibliotheken geben, Küchenmesser nur nach Psychologischem gutachten verkauft werden und Autos gehören verboten.

Wenn ich genug kriminelle Energie habe töte ich sogar jemanden mit einem Hammer oder mit einem Kulli. Du kannst auch eine Zahnbürste zu einem tödlichen Objekt umbauen, Anleitungen bieten einen Haufen Knastfilme.
 
  • Gefällt mir
Reaktionen: slow_snail, racer3, 12nebur27 und 4 andere
mischaef schrieb:
Mit KI ist das vollkommen anders, man bekommt im Grunde alles vorgekaut auf dem Silbertablet serviert.
Da hast du natürlich recht. Und es sollte auf jeden Fall OpenAI zu denken geben.
Aber gleichzeitig ist ein Eingriff in die Privatsphäre und dauerhaftes mithören einer Unterhaltung keine Lösung. Die Chats sind dann noch Teil von Meetings WTF?

Es wurde schon oft von Facebook und auch von OpenAi bestätigt, dass aus Chatverläufen sehr sicher psychische Störungen wie Depression herausgelesen werden können. Und anstatt das dann für Werbung auszuwerten, könnte man Problemlos einen Filter Implemtieren, der die Chats ab einem gewissen Schwellwert von Wortkombinationen abbricht und freundlich Formulierte Anweisungen zu Hilfe Hotlines anbietet.
Was auf jeden Fall auch problemlos Datenschutzfreundlich und Privatsphäre wahrend implementiert werden kann.

Auf keinen Fall sollte sowas dann automatisch zu Behörden oder sonst wohin gemeldet werden. Das wäre ein Privatsphären Albtraum und noch dazu wären trotzdem mit großer Wahrscheinlichkeit 99% False Positives und es gibt ja jetzt schon das Phänomen des Swattings bei Streamern. Na gute Nacht.
 
Calamyt1 schrieb:
Ich bin sprachlos. Man wusste also davon und hätte 8 Menschen das Leben retten können hat es aber nicht gemacht weil? .... weil weiß keiner.
Weil man die Daten lieber für seine Ki verwendet hat?
Warum steht der Altman nicht vor Gericht?
Weil Fantasien keine Tat sind. Bist du jetzt die Thought Police ? Minority Report sagt dir was ?
 
  • Gefällt mir
Reaktionen: racer3 und Zhenwu
Calamyt1 schrieb:
Man wusste also davon und hätte 8 Menschen das Leben retten können hat es aber nicht gemacht weil?
Weil was du schreibst reinste Spekulation ist. Wie kannst du dir so sicher sein?
Die Behörden hätten auch sagen können "Das ist ein ein Amerikaner. Das steht alles unter Meinungsfreiheit.". Und dann? Wäre immer noch OpenAI verantwortlich gewesen?

OpenAI steht nun "dumm da", aber kann im Endeffekt nichts dafür. Wer OpenAI auch nur im geringsten die Schuld gibt ist muss zwangsläufig für eine Vorratsdatenspeicherung sein und den "gläsernen" Bürger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: racer3
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben