News Datenschutz­bedingungen: Google nutzt sämtliche verfügbaren Informationen für KI-Training

Puh, finde den Aufriss um Datensätze für KI und Datenschutz ziemlich übertrieben. Ist irgendwie mal wieder etwas, was innovation hier nach hinten drängt und wo andere Länder uns dann mal wieder überholen.


Die Informationen sind öffentlich im Internet einsehbar. Ich versteh nicht wieso das ein Problem sein sollte. Selbst Argumente wie: Eine KI wird dann dazu genutzt um mit diesen Informationen Dienstleistungen zu erbringen/verkaufen. Ja und?

Ich als Mensch kann die selben Informationen im Internet finden und das Wissen daraus extrahieren. Jeder Programmierer bedient sich Code von GitHub und/oder StackOverflow und viele speisen davon sogar was in Produktionssysteme, welche ebenfalls Geld erwirtschaften. Wo ist nun das Problem, wenn eine KI das macht?

Ich kann nicht nachvollziehen, wie Menschen etwas öffentlich ins Internet stellen und dann jammern, wenn diese Informationen, in diesem Fall von einer Maschine, genutzt werden.

Fast euer gesamtes Verhalten im Internet wird seit Jahren von Maschinen benutzt, beispielsweise Advertising etc oder um Statistiken zu erstellen. Damit haben viele kein Problem, aber wenn eine andere Maschine diese Informationen nutzt ist es falsch. Fast jeder Mensch hinterlässt einen digitalen Fingerabdruck.

Und wenn manche Personen gegen jegliche Erfassung von Metriken sind, und dagegen, dass deren öffentlichen geteilten Informationen genutzt werden, dann bei aller liebe, schreibt nichts ins Internet. Das ist ja schon fast lächerlich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: jdiv und Marius
Der Vergleich suche zu KI ist halt etwas gewagt... Die Suche hat den Zweck jemanden zum Original zu bringen.
KI macht das Gegenteil. Es soll den Nutzer vom Original fernhalten - und Serviert stattdessen die eigene Interpretation davon.
Das ist halt der riesige Unterschied - und auch der Grund warum ich das alles als höchst Illegal betrachte. Und moralisch verwerflich. Auch öffentlich einsehbare Inhalte sind oft halt ausschließlich zur Betrachtung gedacht (und lizensiert!).

über das Thema Künstliche "Intelligenz" braucht man eh nicht viel diskutieren. Das was wir hier als KI bezeichnen, sind Statistikmodelle (für Sprache, für Bildinhalte, was auch immer). Die Entscheidungsfähigkeiten dieser Modelle sind äußerst begrenzt - aber weil sie so überzeugende Texte schreiben, glauben wir Intelligenz zu sehen.

Und mit "Fakten" haben KIs sowieso absolut nichts am Hut.
 
  • Gefällt mir
Reaktionen: denglisch, guzzisti und tomgit
KainerM schrieb:
KI macht das Gegenteil. Es soll den Nutzer vom Original fernhalten.
Das ist halt der riesige Unterschied - und auch der Grund warum ich das alles als höchst Illegal betrachte. Und moralisch verwerflich.
Ist halt Unsinn.
Eine KI kann verweise auf Quellen geben. Des Weiteren ist mittlerweile so viel Wissen im Internet nicht mehr aufs Original zurückzuführen.
Wie viele Blogs die auf der ersten Seite der Google Suche sind, geben wissen wieder, welches sie selber von einer anderen Seite haben? Extrem viele und viele fügen auch keine Verweise aufs Original ein. Redundante Informationen existieren massig.
 
  • Gefällt mir
Reaktionen: pseudopseudonym und Marius
Miuwa schrieb:
"Ich weiß es nicht, aber man könnte XYZ tun um es herauszufinden" hört man von den aktuell gehalten A.I.s halt nicht, ist aber genau das was den Kern wissenschaftlichen Arbeitens ausmacht.

Ein Mensch muss auch erst das Gehen lernen, bevor er Fahrrad fahren kann.

Wir vergleichen hier Milliarden von Menschen, die das Wissen von anderen vielen Milliarden von Menschen über Hunderttausende von Jahren gesammelt haben gegen eine Handvoll KIs, die gerade das Gehen lernen.

Und im Gegensatz zum Menschen, wird der KI nur ein winziger Bruchteil beigebracht, beispielsweise nur das Zeichnen oder nur Texte zu verfassen, etc.

Gegen die Menschheit hat eine aktuelle KI natürlich keine Chance.
Allerdings lernt die KI schneller als jeder Mensch und kann bereits heute in einigen Gebieten 90% der Menschheit schlagen.
 
  • Gefällt mir
Reaktionen: chaopanda und Marius
Miguel14.05 schrieb:
Ich als Mensch kann die selben Informationen im Internet finden und das Wissen daraus extrahieren. jeder Programmierer bedient sich Code von GitHub und/oder StackOverflow und viele speisen davon sogar was in Produktionssysteme, welche ebenfalls Geld erwirtschaften. Wo ist nun das Problem, wenn eine KI das macht?
Wenn sie das machen ohne die Lizenzbedingungen zu beachten, dann ist das Problem das, dass es Illegal ist.
 
  • Gefällt mir
Reaktionen: denglisch, CountSero und Eidgenosse
Miuwa schrieb:
Wenn sie das machen ohne die Lizenzbedingungen zu beachten, dann ist das Problem das, dass es Illegal ist.
Wenn ich den ganzen Code 1:1 übernehme dann ja. Wenn ich ihn mir durchlese, neue Informationen extrahiere und mein Wissen/Skillset dadurch erweiter und dieses im Produktionssystem einbringe ist es kein Problem. Sonst dürfte es nicht öffentlich einsehbar sein.
 
@Miuwa
Wer sagt, dass ChatGPT Logik nicht kann?
Sie kann Logik so gut wie sie DARF.
Denn sie könnte natürlich jedwede Mathematik anwenden die bekannt ist.

Als KI-Modell wurde ich darauf trainiert, in verschiedenen Bereichen, einschließlich Logik, zu helfen. Ich kann logische Rätsel lösen, deduktives Denken anwenden und allgemeine logische Prinzipien verstehen. Allerdings gibt es auch komplexere oder spezialisierte logische Probleme, bei denen meine Fähigkeiten begrenzt sein können. Du kannst mir gerne eine logische Frage oder ein Rätsel stellen, und ich werde mein Bestes tun, um zu helfen!
 
Marius schrieb:
Denn sie könnte natürlich jedwede Mathematik anwenden die bekannt ist.
Nein kann ChatGPT eben nicht. Sieht man immer wieder schön, wenn sie die bei relativ simplen Rechenaufgaben völligen Blödsinn zurück gibt. ChatGPT hat salop gesagt weder nen Taschenrechner integriert, noch kann sie wirkliche logische Schlüsse ziehen (auch wenn es Text ausspucken kann der was anderes behauptet).

GPT 4 ist da meines Wissens weiter.

Wie schon gesagt - es kommt auf die KI an.
 
  • Gefällt mir
Reaktionen: denglisch
Marius schrieb:
Der Mensch ist kein Wunderding und Logik kann eine KI woh unzweifelhaft besser.

Wie kommst Du zu diesem Mangel an Zweifel? Die LLMs koennen Logik nur insofern, als sie Texte ueber Logik wiederkaeuen koennen. Das mag zwar manchmal ueberraschend gut sein, ist aber oft ueberraschend schlecht.

Es gibt auch Theorem Prover, die vielleicht auch unter AI laufen, aber mit LLMs nichts zu tun haben. Die koennen Logik insofern besser, als sie keine Fehler machen (also z.B. ungueltige Theoreme beweisen). Dafuer haben sie oft Schwierigkeiten, gueltige Theoreme zu beweisen, die Menschen beweisen koennen.
 
  • Gefällt mir
Reaktionen: Miuwa, denglisch und guzzisti
Krausetablette schrieb:
Im Internet wird ja auch viel Unsinn verbreitet. Wie will die KI denn feststellen was richtig oder falsch ist? Wer legt fest was stimmt und nicht stimmt?
Das "Wahrheitsministerium" legt sowas dann fest. Es gibt dann halt überall verschiedene Wahrheiten, wie jetzt auch schon. In Deutschland wird dann alles, was nicht gegendert ist automatisch zur FakeNews und die Leute werden das glauben, denn schließlich hat es der Faktencheck der ÖR bestätigt...
Kurzum: KI wird die Meinungsmanipulation noch weiter verstärken, indem sie in einem Affenzahn noch mehr Müll verbreitet.
Vor 20 Jahren hast Du auf eine Frage 10 Antworten aus dem Netz bekommen, von denen 9 richtig waren - heute bekommst Du 100.000 Antworten, von denen 99.999 falsch sind.
 
  • Gefällt mir
Reaktionen: icetom und Eidgenosse
Also ich versteh den ganzen Hype um KI nicht.

Wenn ich mich zb. über ein Gemälde erkundigen will, kann ich mir natürlich Text darüber ausgeben lassen, der das Objekt beschreibt.

Oder ich geh auf Wikipedia und seh mir Bilder an und hab ein um einiges besseres Verständnis darüber.

Auch APIs werden von ChatGPT nur sehr mangelhaft beschrieben. Da ist jede Doku eines Frameworks viel detaillierter. ChatGPT kann das nicht.
Ergänzung ()

crackett schrieb:
Das "Wahrheitsministerium" legt sowas dann fest. Es gibt dann halt überall verschiedene Wahrheiten, wie jetzt auch schon. In Deutschland wird dann alles, was nicht gegendert ist automatisch zur FakeNews und die Leute werden das glauben, denn schließlich hat es der Faktencheck der ÖR bestätigt...
Da hats einer verstanden :daumen:

Hier heisst das Wahrheitsministerium Computerbase. Hier wirst du sogar verwarnt wenn du die Wahrheit sagst (Stichwort Bataclan Frankreich bezogen auf die neusten "Krawalle".)
 
  • Gefällt mir
Reaktionen: crackett und icetom
@mae
Ich habe die Aussage dazu von ChatGPT geliefert.
Sie kann natürlich Logik, das ist ihre Grundlage.
Dazu muss sie doch keinen mathematischen Overkill betreiben.
Sie kauen nicht nur Texte wieder, das ist eine viel zu einfache Ansicht!

Sie kann auf die Frage "Wer ist der Vater meiner Tochter" eine logischen Antwort liefern:
Du selbst.

Das macht sie aber erst im 2. Anlauf, wenn man ihr sagt, dass das ein Rätsel ist und keinen Datenschutz verletzt.
:)
 
"Das habe ich leider nicht verstanden..." 😄 Mehr kann Google bei einer Sprachanfrage nicht beitragen, obwohl als Text steht schon alles da. Zum Thema Google und KI.
 
@Eidgenosse
Der Hype um Bildererkennung, den verstehst du nicht...
Ok, dann geh am handy oder am PC, wenn verlinkt, in deine bei Google gespeicherten Fotos.
Da gibts doch eine Suche.
Da kannst du auch schreiben:
Rote Autos
Und die KI am Google Server sucht dir alle Fotos raus, wo ein rotes Auto drauf ist, oder sein könnte.
Oder alle mit blonden Haaren, oder von "Name", wenn eine Person auf mal markiert wurde, wird sie zuverlässig erkannt, oder "wandern", oder Wasserfall,.... oder der Ort, wenn GPS der Kamera aktiviert wurde.
Geht aber nicht alles in jedem Land.
 
Zuletzt bearbeitet:
Habe von Googles nichts anderes erwartet. Darum nur Apple! Außerdem versuchen die Apple zu kopieren. Steve würde sich im Grab umdrehen. Recht hatt er. RIP.
 
Miuwa schrieb:
Wenn sie das machen ohne die Lizenzbedingungen zu beachten, dann ist das Problem das, dass es Illegal ist.
Solange du nicht reines Copy-Paste ist, ist es das eben nicht. Solange du das neuronale Netz zwischen deinen Ohren nur so damit trainierst, dass du Dinge verstehst und damit nachbauen kannst, ist das okay. Und genau das macht ein neuronales Netz.
 
Zurück
Oben