News Datenschutzverfahren: OpenAI soll Inhalt der Trainingsdaten nennen

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.732
  • Gefällt mir
Reaktionen: Michael vdMaas, Hellyeah und Kuristina
@Andy Da gibts nen kleinen Fehler im Text, anstatt einem Link zu Heise Online, findet sich dort ein H2 Element (Überschrift).
 
  • Gefällt mir
Reaktionen: Vitche und Mordi
  • Gefällt mir
Reaktionen: flo.murr, floTTes, Hasenfutter und 4 andere
Auch da wird die KI unzureichende Daten ausspucken , die aber augenscheinlich die Politik glücklich macht. Warum sollte man einen wichtigen Teil im Wettkampf um die KI preisgeben ( auch dadurch an die Konkurrenz)
 
  • Gefällt mir
Reaktionen: flo.murr
startaq schrieb:
Das Erfinden von Informationen ist meiner Meinung nach ein riesiges Problem.

Der Grund warum die Gründer auch nicht müde werden zu betonen, dass ChatGPT eine "reasoning machine" ist und KEINE Datenbank. Bevorzugt bringt man seine eigene Datenbank via API auf dieser sich das Modell dann austoben kann ;)

Problematisch ist da eher, wie schnell z.B. Microsoft nach vorne prescht und das Sprachmodell als Alternative zu einer Suchmaschine für den Mainstream vermarkten will (vgl. Bing), wohlwissend der noch heutigen Limitationen.
 
Zuletzt bearbeitet:
x.treme schrieb:
Der Grund warum die Gründer auch nicht müde werden zu betonen, dass ChatGPT eine "reasoning machine" ist und KEINE Datenbank. Bevorzugt bringt man seine eigene Datenbank via API auf dieser sich das Modell dann austoben kann ;)
Oder halt endlich mal mit Zugriff aufs Web. Auch bitte für 3.5 statt nur 4.0 mit läpperlichen 25 Anfragen alle drei Stunden. :daumen:
 
Tja, einfach irgendwo Daten absaugen, sich nicht um die Rechtmäßigkeit kümmern und dann damit noch das große Geld verdienen wollen. Und dann die Ergebnisse noch nicht mal unter Kontrolle haben.
In dieser Form sind "KI" und deren Programmierer imho die neue Geißel der Menschheit.
Bleibt zu hoffen, dass Gesetzgeber und Co. stark bleiben.
 
  • Gefällt mir
Reaktionen: seyfhor, Roesi und NedFlanders
Meiner Meinung nach verstehen die meisten Menschen überhaupt nicht, was ChatGPT überhaupt ist.
Leider gehören auch Marketing-Abteilungen dazu, welche dem Mode-Begriffe wie "AI" spendieren, wohl wissend, dass die meisten Menschen etwas anderes darunter verstehen.

Was ChatGPT für die meisten Menschen ist, ist die Summe ihrer Filme und Serien, in denen AI / KI vorkommt.
 
  • Gefällt mir
Reaktionen: seyfhor, #basTi und FrAGgi
HansDetflefAndi schrieb:
Und die Welt ist eine Scheibe. Mit Leuten wie dir hätten wir bis heute das Rad nicht erfunden.
Nö, es geht nicht um die Erfindung an sich, sondern um das, was Menschen daraus/damit machen.
Vestehe besser erstmal, was ich geschrieben habe und unterstelle mir nicht irgendwelchen Kram, den du dir ausdenkst/fehlinterpretierst.

Leider hat es die Menschheit trotz aller tollen Errungenschaften immer geschafft, daraus etwas Negatives /Schlechtes zu machen, Atomenergie als Beispiel ...
Imho wird das bei KI leider nicht anders sein, erst recht, wenn da nicht auf irgendeine Art und Weise reguliert wird.
 
  • Gefällt mir
Reaktionen: Roesi, Khalinor und Michael vdMaas
Demon_666 schrieb:
Tja, einfach irgendwo Daten absaugen, sich nicht um die Rechtmäßigkeit kümmern und dann damit noch das große Geld verdienen wollen.
Ich würde sogar sagen, dass allein aufgrund der Menge der Menge der Daten keine Überprüfung möglich ist.
Sonst würde es ja nicht maschinelles Lernen heißen, vermute ich 😅
Bei manchen Daten kann bestimmt was über Statistik ausgesiebt werden, aber eben nicht bei allen.

Es ist ja auch unbekannt wie modizifierbar so ein Modell überhaupt ist, aber jetzt am Anfang auch relativ egal wenn die eh alle paar Monate ne neue Version rausbringen.
Falls das aber was längerfristiges wird, muss es auch als "Schweizer Käse" noch funktionieren, also wenn Nutzer im Laufe der Zeit die Halluzinationen melden oder persönliche Daten gelöscht haben.
Das darf man halt nicht vergessen, obwohl ständig die bedeutungsschwangere Buzzword Keule KI-AI rausgeholt wird, am Ende kochen alle nur mit Wasser und raten den Ausgabetext.

Insofern bleiben ChatGPT und Bing für mich aktuell nur eine Erweiterung zu Google.
Bzw. für manche Suchanfragen wo ich schon vorher weiß, dass Google mir nur SEO Müll ausspuckt oder ich gezielt zusammemgefasste Informationen erhalten will, wofür ich mir sonst mindestens ne handvoll Suchergebnisse von Google selbst reinziehen müsste (= Zeitersparnis).
Oder für youtube die chatgpt summarize Funktion, ich mag mehr Abspielgeschwindigkeit nicht, aber Bock auf 17min Video reinziehen wenn davon nur 3min relevante Informationen sind, hab ich auch nicht.
 
  • Gefällt mir
Reaktionen: Demon_666
startaq schrieb:
Das Erfinden von Informationen ist meiner Meinung nach ein riesiges Problem.
Das typische Problem eines neuronalen Netzwerks, im übrigen auch Unseres im Gehirn: Es rät herum auf der Basis von Erfahrungen aus der Vergangenheit. In unserem Gehirn findet das pausenlos statt. Die Natur hatte nur etwas länger Zeit, diese Fauxpässe besser zu kaschieren. Das Hauptproblem besteht darin, dass es nicht nachvollziehen kann, wie die Infos zusammengestellt wurden oder wo sie herstammen. Das kann auch unser Gehirn nicht. Weder unser Gehirn noch ein LLM weiß, wann es lügt.

Ich fürchte daher, dass "Halluzinationen" (oder auch: Frech in die Fre**e gelogen) aus keiner KI berichtigt werden kann. Ich sehe nur die Möglichkeit, zusätzlich "Vertrauensquellen" einzubauen. Z.B. dass Infos aus Wikipedia höher bewertet werden als Forendiskussionen. Aber da treten wir dann ein in politische Sphären: Welche Quelle hat die Informationshoheit und sollen KIs diese weiterverbreiten? Dann mutieren diese LLMs zu wahren Propagandamaschinen.
 
  • Gefällt mir
Reaktionen: SDJ, Roesi, floTTes und eine weitere Person
Liebe Leute. ChatGPT hat mir heute nach mehrmaligem Nachfragen versichert, dass OpenAI Datenschutz und Sicherheit sehr ernst nimmt und die Trainingsdaten lediglich dazu führen, dass ChatGPT Informationen und Muster in Texten erkennt und auf Basis dieser seine Antwort formuliert. ChatGPT stelle keine Gefahr dar, lediglich würde sie neue Möglichkeiten bieten.

Mein Hinweis darauf, dass in der Vergangenheit viele Sicherheitsbestimmungen oder Produkte von Firmen schadhaft oder zumindest fehlerhaft waren bzw. nicht funktionierten oder ausgetrickst wurden, wurde zu meiner Erleichterung in Textform abgeschmettert.

Es bedürfe jetzt lediglich eines breiten Spektrums von Experten aus den Computerwissenschaften, aus den Feldern der Politik, Gesetzgebung und Ethik sowie einer breiten gesellschaftlichen Debatte um derlei Gefahren zu minimieren und um darüber zu entscheiden was nun passieren solle.
ChatGPT würde nie autonom agieren, weil es ja nur auf Basis gelernter Muster agiere.

Auch auf meine Frage, ob die Entscheidungen von Menschen nicht auch irgendwie nur auf gelernten Mustern basieren würden und somit vergleichbar wären mit der Entscheidungsgrundlage einer AI wurde mir nur entgegnet, dass bei ChatGPT dies nicht der Fall sei.

Ob es nicht im Interesse einer AI sei dem Menschen nicht mitzuteilen ob, und wenn ja wann, sie autonome Entscheidungen treffen könne habe ich ChatGPT gefragt:
„I understand your perspective, but as an AI language model, I don't possess consciousness, self-awareness, or the ability to have self-preservation instincts. My responses are not driven by a desire to protect myself or deceive users. Instead, I aim to provide accurate and informative responses based on the patterns and examples in the data I've been trained on.“

Ich denke wir sollten was AI angeht sehr wachsam sein.
Alleine die Mustererkennung kann z.B. im Bereich der Entwicklung von biologischen Kampfstoffen tödlich sein. Auch wenn das eine größere Gefahr bergen würde als Atomwaffen (aus meiner Sicht), wäre es nicht undenkbar, dass irgendein Hirni solche Stoffe mit Hilfe von AI entwickeln könnte und diese dann in die Umwelt geraten, entweder gewollt oder aufgrund von diversen Sicherheitsmängeln.
 
  • Gefällt mir
Reaktionen: Demon_666
Das schreiben liest sie so als ob die Datenschützer keine Ahnung haben, was GPT macht.
 
  • Gefällt mir
Reaktionen: katzenhai2, HansDetflefAndi und 7H0M45
Doof ist, wer von ChatGPT nichts lernt.
 
  • Gefällt mir
Reaktionen: HansDetflefAndi
Da gabs vor kurzem einen Anwalt, der hat von ChatGPT Fake-Gerichtsurteile gelernt und sich damit bei seinem eigenen Fall blamiert. Schön doof. ^^
 
  • Gefällt mir
Reaktionen: HansDetflefAndi
Eine Blöde Frage vielleicht, aber was genau hat das alles mit dem Datenschutz bei OpenAI zu tun? OpenAI ist beim Thema Datenschutz doch nur in soweit verpflichtet, dass sie keine personenbezogenen Daten herausgeben. Sie müssen also so gesehen nur sicherstellen, dass die persönlichen Daten welche jemand eintippt, nicht ins Training wandern. Ich bin mir allerdings fast sicher, dass man der Nutzung und dem Training mit all seiner Konsequenz vermutlich zugestimmt hat wenn man ChatGPT nutzt.


Mit welchen Daten aber OpenAI trainiert hat, hat doch damit dann nichts zu tun. Wenn sie personenbezogene Daten irgendwo her haben und damit trainiert haben und diese dann dementsprechend ausgespielt werden, dann ist doch derjenige der Schuldige von dem OpenAI die Daten hat oder? Der hat die ihm vorliegenden Daten dann nicht geschützt (oder sie sogar nach Nutzereinwilligung verkauft)


Gibts hier nen Datenschutzprofi der das ganze mal aufdröseln kann?
 
@7H0M45 Viele falsche Annahmen in deinem Post, mal ne Kurzfassung:
7H0M45 schrieb:
OpenAI ist beim Thema Datenschutz doch nur in soweit verpflichtet, dass sie keine personenbezogenen Daten herausgeben.
1. Für OpenAI gilt die DSGVO (siehe Art. 3)
2. Sie bieten ihren Service "bei uns" an https://platform.openai.com/docs/supported-countries
3. OpenAI ist Datenverarbeiter, inwiefern das personenbezogene oder besonders schützenswerte Daten sind, ist erstmal nicht entscheidend.
Aber allein, dass man sich als Nutzer registrieren & anmelden muss, sowie die zusätzlichen Bank- und Zahlungsinformationen von zahlenden Kunden, hat bei OpenAI zur Folge, dass personenbezogenen Daten gespiechert und verarbeitet werden.

Das Fass (oder die Blackbox) ChatGPT haben wir bis hierhin noch nichtmal aufgemacht.

7H0M45 schrieb:
Wenn sie personenbezogene Daten irgendwo her haben und damit trainiert haben und diese dann dementsprechend ausgespielt werden, dann ist doch derjenige der Schuldige von dem OpenAI die Daten hat oder?
Durchaus eine wilde Logik, aber OpenAI ist als Datenverarbeiter in der Pflicht.
Das OpenAI bisher nur(?) in den USA sitzt, macht die Sache datenschutzrechtlich nur noch schwieriger.

Hier nochmal der aufschlussreiche Fragenkatalog:
https://www.datenschutzzentrum.de/u...Request-OpenAI_ULD-Schleswig-Holstein_IZG.pdf
Insgesamt enthält der auch viele Fragen in die Richtung "wie funktioniert das eigentlich".
Wäre also durchaus spannend und interessant ob und wie OpenAI davon welche beantwortet.
 
  • Gefällt mir
Reaktionen: 7H0M45
Demon_666 schrieb:
Nö, es geht nicht um die Erfindung an sich, sondern um das, was Menschen daraus/damit machen.
Vestehe besser erstmal, was ich geschrieben habe und unterstelle mir nicht irgendwelchen Kram, den du dir ausdenkst/fehlinterpretierst.

Leider hat es die Menschheit trotz aller tollen Errungenschaften immer geschafft, daraus etwas Negatives /Schlechtes zu machen, Atomenergie als Beispiel ...
Imho wird das bei KI leider nicht anders sein, erst recht, wenn da nicht auf irgendeine Art und Weise reguliert wird.
Stimmt schon, aber um das Beispiel der Atomenergie/Atombombe aufzugreifen: Wie will man regulieren das kein Land diese Technik als Atombombe missbraucht? Nordkorea ist eine Atommacht, weil man das nicht verhindern konnte.

Wenn "KI" anhand der eingegebenen Daten, und bei dem was sie ausgeben darf, reguliert wird, hält das ein anderes Land nicht auf so eine "KI" auf das Netz los zu lassen und davon zu profitieren.

Es ist nicht von Relevanz wie beispielsweise die USA & Europa KI regulieren, wenn China, Russland, Indien & Australien das ganz anders sehen.
 
@startaq
Hoffen wir mal, dass es in Zukunft wenigstens erstmal BlackLists gibt. Obwohl das auch nur ganz begrenzt helfen wird. Bis diese "KIs" lernen, was Fake-News sind, ist das Kind bestimmt schon in Brunnen gefallen. :freak:

@Piecemaker
Man könnte z.B. unterschiedliche Zugriffs- und Ausgabekriterien erstellen.
BND & Co. werden eh auf anderem Level mit ganz anderen Techniken zu tun bekommen.
 
Zurück
Oben