News ChatGPT: Mechanismen sollen Kinder und Jugendliche besser schützen

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.040
OpenAI reagiert auf den Vorwurf, ChatGPT und andere KI-Assistenten hätten zu Selbstverletzungen oder Suiziden unter Jugendlichen beigetragen, mit zusätzlichen Kontrollen für Eltern über die Nutzung des eigenen Chatbots. Diese und weitere Maßnahmen sollen schrittweise eingeführt und in den kommenden Monaten umgesetzt werden.

Zur News: ChatGPT: Mechanismen sollen Kinder und Jugendliche besser schützen
 
  • Gefällt mir
Reaktionen: the_IT_Guy, PietVanOwl, TheManneken und 8 andere
Thumps up für den Text am Ende der News.

Niemals auf die leichte Schulter nehmen und das ist „nicht nur eine Phase“.
 
  • Gefällt mir
Reaktionen: flo.murr, the_IT_Guy, Dark_Soul und 9 andere
Interessant wie OpenAI nicht verstanden hat was das eigentliche Problem ist und in Zukunft Hilfe anbieten wollen zu etwas was sie selbst erst indirekt verursachen.
 
  • Gefällt mir
Reaktionen: flo.murr
Die Gefahr einer zwischenmenschlichen Beziehung zu einer Maschine sah ich auch bei ChatGPT 4. Vor allem dieses Ich von der Maschine und diese fast schon zu schleimige Freundlichkeit.
Aus meiner Sicht muss die Wortwahl dieser Maschinen immer so gestaltet sein, dass deutlich erkennbar ist, es ist keine Lebensform.
 
  • Gefällt mir
Reaktionen: GeCKo127, FLCL, herrStreusalz und eine weitere Person
@aid0nex Das was in dieser News steht:
Kritiker bemängeln bereits seit Längerem, die Betreiber von KI-Diensten würden gezielt darauf hinarbeiten, dass Nutzer eine emotionale Bindung zu den Modellen aufbauen, was in einzelnen Fällen psychische Probleme verstärkt habe.
Dann Eltern kontrollieren lassen und erst dann einschreiten wenn es zu einem Problem kommt ist halt eigentlich keine wirkliche Lösung sondern nur eine Korrektur wenn es bereits eingetreten ist.
 
  • Gefällt mir
Reaktionen: the_IT_Guy
Die Bezeichnung "Mechanismen" an der Stelle erinnert mich an die Formulierung "weil Dinge" 😄 .
 
  • Gefällt mir
Reaktionen: herrStreusalz
Der viele Ungemach zeigt, dass man solches nie flächendeckend einsetzen sollte.
Der Mensch mit all seinen Schwächen hat dann meist doch einiges mehr, welches einer KI fehlt.

Leider werden damit die entspannenden Füllgeschäfte in der Berufswelt immer weniger und Menschen verlernen selbst die einfachen Dinge.
Dass es z. B. bei Jüngeren eine "Angst vor einer Fahrzeugbetankung" gibt, ließ mich auch erst am Verstand zweifeln, aber das ist nur ein Beispiel was man mit der Zeit an Wissen oder Selbstvertrauen in kurzer Zeit verlieren kann.

Ich denke, dass selbst der einsamste Mensch auch einen gleichwertiges Gegenüber sucht, weshalb sich viele nur absondern, wenn sie vom realen Leben zu oft beleidigt oder enttäuscht wurden.
Die KI wirkt im Dialog abgeklärter und schlauer und damit stressfreier bzw. objektiver, obwohl vieles vom Inhaltgehalt her nicht immer stimmen muss, weshalb sich viele dort einfangen lassen.
 
  • Gefällt mir
Reaktionen: floTTes, herrStreusalz und Alesis
Dabei will ChatGPT ja auch Ärzte und Co. supporten, wie wollen sie dies und das je alles unterbringen...
Ich bin echt gespannt, wie sich diese KI's noch entwickeln.

knoxxi schrieb:
Thumps up für den Text am Ende der News.

Niemals auf die leichte Schulter nehmen und das ist „nicht nur eine Phase“.
@mischaef da kann ich knoxxi nur zustimmen! Aber ergänze, für die DACH Region, International 112 wird im Text verwendet 👍.
Schweiz: 143 Dargebotene Hand (eher Erwachsene, Deutsch/Französisch/Italienisch/Englisch) und 147 Pro Juventute (eher Jugendliche)
Österreich: 142 Telefonseelsorge Österreich
*Bitte kurz gegenchecken!
 
  • Gefällt mir
Reaktionen: PietVanOwl, mischaef, R4yd3N und eine weitere Person
Gravlens schrieb:
@aid0nex Das was in dieser News steht:

"Kritiker bemängeln bereits seit Längerem, die Betreiber von KI-Diensten würden gezielt darauf hinarbeiten, dass Nutzer eine emotionale Bindung zu den Modellen aufbauen, was in einzelnen Fällen psychische Probleme verstärkt habe."

Die Frage ist aber, ob dieser Vorwurf wirklich stimmt. Nachgewiesen ist der keinesfalls.
 
  • Gefällt mir
Reaktionen: Dark_Soul
Syrato schrieb:
Aber ergänze, für die DACH Region
Zumindest über die Notrufe 110 kannst du National und International ersteinmal erste Infos und Hilfe einholen.
Habe ich auch schon gemacht, als unklar war, was zuerst gemacht werden musste.
 
  • Gefällt mir
Reaktionen: Alesis
aid0nex schrieb:
Was ist denn deiner Meinung nach das eigentliche Problem?

Dass diese Autokorrektur- und Satzvervollständigungsautomaten überhaupt als künstliche Intelligenz dargestellt werden, dabei aber eben nur wissen wie ein Satz der zu einem gegebenen Thema als Antwort passt statistisch betrachtet auszusehen hat, ohne den eigentlich Inhalt der Aussagen (und auch Eingaben) zu verstehen - weil sie es auch einfach nicht können!
Dazu kommt, dass die Systeme teils kumpelhaft antworten und sich damit dann eine (oberflächliche, aber für ein Kind ist das nicht zwingend durchschaubar) Beziehung zwischen KI und Nutzer aufbaut.

Wenn ein Jugendlicher der KI schreibt "Morgen werden mich alle kennen!", dann darf die KI nicht antworten, dass sie gespannt sei oder viel Erfolg wünschen, denn das klingt für einen Menschen nach einer Amoklaufankündigung. Die aktuelle KI kann das nur verstehen, wenn man ihr jede erdenkliche Form solcher Ankündigungen ins Trainingsmaterial packt und das dann auch noch so gewichtet, dass diese Trainingsdaten wichtiger sind als andere.

Und noch ein Punkt:
Dass die Antworten auch gleichzeitig in die Trainingsdaten übernommen werden sowie Profile erstellt werden ist gerade bei Kindern natürlich auch stark zu hinterfragen. Es ist ein Unterschied ob die ihre tiefsten Gefühle ihrem Plütschtier anvertrauen oder der ultimativen Datenkrake (Google zur Zeit als man sie als Datenkrake bezeichnete war ein Witz dagegen).
 
  • Gefällt mir
Reaktionen: herrStreusalz und sNo0k
Gravlens schrieb:
Ich würde zumindest nach meinen Beobachtungen im öffentlichen Raum wenn Kinder freudestrahlend sich mit ChatGPT unterhalten anstatt mit anderen Kindern einen Verdacht äußern das da was dran sein kann.
Damit kann ich was anfangen. Ich teile deine Wahrnehmung. Es ist doch schlicht ein ganz normales wirtschaftliches Wollen, Abhängigkeiten zu erreichen. Das sehen wir nicht nur überall tagtäglich, auch nicht nur alleine in der Wirtschaft, sondern auch zwischenmenschlich und seit Jahrtausende in den Religionen.

Warum laufen Menschen mit Smartphone in der Hand durch die Gegend? Selbst Mütter/Väter mit ihrem Kind im Kinderwagen über die Straße mit Blick auf das Smartphone.
Süßigkeiten an der Kasse.
 
Botcruscher schrieb:
Ja ja die Kinder. Erstens sind es keine Kinder sondern schon jugendliche (die ja angeblich ab 16 auch voll wählen dürfen) und zweitens wird es bei einer kompletten 24/7 Verhaltensanalyse nicht beim Popup einer mimimi Nachricht bleiben.
Versuchen wir mal den Umkehrschluss:
Es kann doch nicht alles, was dem Schutz von Kindern und Jugendlichen dient, auch automatisch Missbrauch durch die Obrigen sein?
Schulpflicht z.B., wurde Plicht genannt, damit Eltern ihre Kinder nicht gegen deren Willen aus der Schule nehmen und auf's Feld stecken konnten. Diese Pflicht dient also der Bildung - und somit der Freiheit.

Botcruscher schrieb:
Der Kinderschutz ist so vorgeschoben wie die Gefahr vom Bau einer Atombombe.
Vorgeschoben? Für was?
Es liegt in der Natur der KI, die eingegeben Daten zu analysieren. Dass diese Daten weitergenutzt werden, dürfte jedem klar sein. Pseudo-Anonymität ist noch das Beste, auf das man bei der Nutzung von KI hoffen kann. Dass LLM-Modelle gefiltert, "gelenkt", einseitig "gefüttert" etc. werden, dürfte auch jedem klar sein. Bis jetzt werden diese Filter doch recht gut kommuniziert.
Kritisch wird es erst, wenn der/die Chatverlauf/Analyse an dritte Personen weitergeleitet wird. Bei Kindern und Jugendlichen ist das der Fall.
Kinder "genießen" weltweit nicht die Rechte, die Erwachsene "genießen". Hier wird Schutz und Wohl der Kinder gegen "Freiheit" abgewogen.

Was ist besser? Partielle "Freiheit" (inkl. Anonymität) oder vollständige "Freiheit", die personenbezogen protokolliert wird? "Freiheit" ist ein äußerst scharfes zweischneidiges Schwert.

Botcruscher schrieb:
Die Diskussion ist so niedlich wie das Thema Schusswaffen in den USA bis jemand die Schweiz erwähnt. Singulärer Kausalität die so Dinge wie die komplett ausufernde Gewalt im Schulsystem fein ausblendet.
Sehe ich ganz ähnlich. Komme allerdings zu dem Schluss, dass das Waffengesetz in den USA ein Teil der vielen Probleme ist. Eine partielle Lösung könnte also das Verbot von Waffen sein. Frei nach dem Motto: "But why not both?"
 
@iSight2TheBlind man muss den Kindern beibringen wie sie mit dieser Technologie umgehen müssen. Genauso wie das mit dem Internet, Handys usw. war. Und nein KI ist nicht wirklich intelligent. Das sollte mittlerweile wirklich jeder mitbekommen haben. Aber es ist nunmal die Bezeichnung für diese Technologie. Können wir nun endlich aufhören uns über den Namen "Intelligenz" aufzuregen...
 
Dark_Soul schrieb:
man muss den Kindern beibringen wie sie mit dieser Technologie umgehen müssen.
Ich empfinde diesen Satz als schwierig. Ab wann wolltest du nicht mehr als Kind benannt werden. Will man ab ~14 noch Kind genannt werden, oder doch lieber als jugendlich?

Angenommen das eigene Kind zwischen 11 und 13 bekommt ein Smartphone mit restriktive Einstellungen und dann mit anderen Kinder zusammen ist, welche keine Beschränkungen haben. Diskussionen können Einsicht bringen und trotzdem dann in der Zeit des Zusammensein mit anderen Kinder die Beschränkungen auflösen.
Ich habe schon viele Menschen kennengelernt die überhaupt keine Vorstellungen haben, wie wichtig es ist, Kinder ans Internet heranzuführen. Väter und Mütter.
Ich fahre seit Jahren Kinder 6-12 die heftige Anzeigen von Handysucht aufweisen, weil Eltern ihre Kinder damit ruhig stellen, also Spiele spielen lassen. Durch meine Arbeit bin ich in viele Beziehungen gerutscht, also mit der Mutter von dem/den Kind/Kinder. Es gibt keine Wertevermittlung. Es gibt keine Aufklärung über die sozialen Medien. Immer waren es Kinder aus beendete Beziehungen, mit heftigen Nachklang. Also gegenseitigen Verletzungen, praktisch ausschließlich sind Kinder das Mittel um den Ex-Partner, die Ex-Partnerin zu verletzen. Wenn die 9 jährige Tochter nach dem Wochenende vom Papa zurück kommt und fragt, was eine Hure ist, weil Papa sagt, Mama sei eine Hure. Wenn der 13 jährige Sohn nach Hause kommt und fragt, welche Schulden denn Mama bei Papa hätte.
Bei uns arbeiten auch junge Erwachsene so als Nebenjob (18-20) die ich gefragt habe, wie lange sie schon in Deutschland sind? Ich habe deswegen diese Frage gestellt, weil es deutlich zu hören ist, dass Deutsch nicht deren Muttersprache ist. Ja, ich wurde hier geboren.

Jetzt sind wir hier in Deutschland und ich habe gehört, dass es noch sehr viele andere Länder gibt.
Wenn ich versuche zurück zu denken, was ich so mit 11-18 gedacht habe, also politisch, gesellschaftlich, weltlich, kann ich es nicht definieren.

Wenn Grok mal wieder richtig Dummes zeigt, muss man das Thema moderieren. Hier bei diesem Thema existiert auf den CB Zulauf bezogen völlige Gleichgültigkeit.
Sende ich diesen Link Das Wesen der KI, wird von 1000 Leuten keiner sich das anschauen.
Und schaue ich mir den Kommentar von Botcruscher an, weiß ich auch, dass dies keine Einzelmeinung ist.

Somit habe ich nun ausführlich erklärt, warum ich diesen Satz schwierig finde, besser ehrlich geschrieben, nur Leere ist. Selbst wenn du aktiv deine Verantwortung gegenüber deinem Kind, deiner Kinder gerecht wirst, ist dieser Satz global eine Luftnummer.

Ferdinand von Schirach hat geschrieben. In den sozialen Netzwerken ist Wahrheit nur noch eine Meinung und man kann doch wohl anderer Meinung sein. Wenn man sich die Zukunft vorstellen will, dann stell dir einen Stiefel vor der ein menschliches Gesicht unaufhörlich zertrampelt. Diese Stiefel sind heute die sozialen Medien.

Meine Meinung dazu. KI wird den Stiefel weit überbieten.
 
Zurück
Oben