News Neue Regeln und Tools: YouTube will generative KI-Inhalte kennzeichnen oder löschen

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.742
  • Gefällt mir
Reaktionen: flo.murr, Otorva und gustlegga
Und von den integrierten digitalen Wasserzeichen lassen sich welche OpenSource Modelle beeindrucken?
 
  • Gefällt mir
Reaktionen: Unnu
Kennzeichnen ja, aber löschen? Das ist hohe Kunst:

Sollten die generativen KI-Inhalte gegen die Nutzungsbedingungen verstoßen, werden diese von der Plattform entfernt.
Alle Inhalte die gegen die Nutzungsbedingungen verstoßen werden gelöscht oder sanktioniert. Egal ob KI-generiert oder nicht. Verstehe nicht was diese Differenzierung soll.
 
  • Gefällt mir
Reaktionen: Unnu, xXBobbyXx, DiamondDragon und 10 andere
Lieber direkt nicht zulassen und sprren/löschen sobald es erkannt wird. Möglicher Missbrauch im Keim ersticken.
My2Cents
 
  • Gefällt mir
Reaktionen: HardcoreGaymer und Xood
Können sie auch gleich den ganzen Low-Quality-Content gleich mitsperren, wie z.B. irgendwelche "Produkttests" die mit ner KI-Stimme das Datenblatt mit ein paar Stockfotos runterrattern etc. ;)
 
  • Gefällt mir
Reaktionen: Fritzler, Valentin023, lalanunu und 42 andere
Markieren von KI generierten Inhalten halte ich für sehr sinnvoll.
Mehr aber nicht. Und es muss zuverlässig funktionieren, sowie bei Irrtum muss man die Möglichkeit haben dies richtig stellen zu können.

Für alles andere existieren bereits jeweilige Gesetze.
 
  • Gefällt mir
Reaktionen: Banjo, AlphaKaninchen, dermatu und 2 andere
dass das Video manipuliert oder synthetisch erzeugt wurde.

Trifft das nicht so gut wie auf jedes Video zu? Warum wird KI gesondert herausgegriffen?

Ich meine, der "KI-Spam" ist tatsächlich unerträglich geworden (bei Shorts fällt es mir besonders auf), aber das heißt ja nicht, dass KI generierte Videos per se schlecht sein müssen.

Man müsste dann ja eigentlich auch kennzeichnen, ob ein Greenscreen verwendet wurde, der/die Influencerin geschminkt / durch Filter gejagt wurde um schöner auszusehen, die Farben nachbearbeitet wurden um eine Außenszene "wärmer/sonniger" empfinden zu lassen, etc.

Ich denke, der eigentliche Treiber war der hier:
Auch im Copyright-Bereich wird YouTube tätig. Musikfirmen können KI-Inhalte melden, die Künstler imitieren.


Edit: erinnert mich ein wenig an Spotify, wo kleine Künstler nun nicht mehr bezahlt werden, damit die großen Labels mehr Kohle verdienen.
 
  • Gefällt mir
Reaktionen: Lillymouche, xXBobbyXx, DiamondDragon und 8 andere
Mich nervt es eher bei Instagram. Man wird überschüttet mit KI Fotos. Schön wäre eine automatische Blockierung solcher Fotos.
 
  • Gefällt mir
Reaktionen: HardcoreGaymer und Wintermute
Bitte auch jede generierte Stimme ! Die Seuche des Internets …
 
  • Gefällt mir
Reaktionen: Fritzler, Blackvoodoo, dermatu und 4 andere
supermanlovers schrieb:
Mich nervt es eher bei Instagram. Man wird überschüttet mit KI Fotos. Schön wäre eine automatische Blockierung solcher Fotos.
Überschüttet werden um alle 2 Minuten aufs Handy zu schauen ist doch Instagrams Kerngeschäft.
 
  • Gefällt mir
Reaktionen: Beero84, dermatu und dideldei
Manuelle Deepfakes, die also von einem fähigen Künstler ganz ohne KI gefertigt wurden, gehen also durch? Prima ! 😂
 
  • Gefällt mir
Reaktionen: DiamondDragon
Zum einschlafen besser das Handy weglegen ;)
 
  • Gefällt mir
Reaktionen: Blackvoodoo, NerdmitHerz und Kartoffel!
Draco Nobilis schrieb:
Markieren von KI generierten Inhalten halte ich für sehr sinnvoll.
Mehr aber nicht. Und es muss zuverlässig funktionieren, sowie bei Irrtum muss man die Möglichkeit haben dies richtig stellen zu können.

Für alles andere existieren bereits jeweilige Gesetze.
Grundsätzlich schon. Aber diese Internetriesen interesieren sich ja heute schon nicht um irgendwelche Gesetze. zB das Einschränken und Löschen von Accounts weil dort angeblich irgendwas gezeigt oder gesagt wurde was gegen irgendetwas verstößt ohne genau expliziti es benennen zu können geschweige denn dem Creator die Möglichkeit zur stellungnahme einzuräumen was sie per Gesetz aber müssen. Da setzt man sich heute schon drüber hinweg.

In Zukunft wird es dann so laufen dass nach gutdünken irgendwelche Videos als "KI" generiert markiert werden und wenn du damit ein Problem hast und möchtest dass bestehendes Gesetz durchgesetzt wird du erstmal schön Geld in die Hand nehmen kannst und klagen....

Kurzum es muss auch empfindliche Strafen für Youtube dafür geben wenn sie irrtürmlich Dinge dann als KI generiert einstufen....einfach damit sowas nicht "ausversehen" zu häufig passiert...

Gleichzeitig hat KI generierter Inhalt vom Ersteller zu Kennzeichnen. Problem ist aber was ist mit Leuten die es Teilen und Verbreiten und vielleicht gar nicht wissen dass es KI Content ist?

Ich seh das schon kommen: "Kampf gegen KI Content" wird genauso ein Vorwand wie "gegen Kinderpornografie" um einfach zu löschen, zu zensieren und zu überwachen können. Man erzählt den Leuten halt irgendetwas damit sie etwas akzeptieren was sie sonst nie akzeptieren würden...

Kurzum die Idee an sich ist edel, an der Umsetzung wird es aber scheitern...
 
  • Gefällt mir
Reaktionen: DiamondDragon, Slayn, Qyxes und 2 andere
KI ist der Anfang vom Ende. Die GAFAM wird die KI nicht überleben.
 
Na hoffentlich bleiben Kunstwerke wie die ganzen Balenciaga Videos und Harry Spotter erhalten :D
 
  • Gefällt mir
Reaktionen: DiamondDragon, Qyxes, menace_one und 3 andere
Warum ist KI so ein großes, geschweige denn ein Neues Problem? Man hat doch vorher schon Bilder sowie Audio- und Videoaufnahmen manipuliert, generiert oder schlicht aus dem Kontext gerissen.

Ob jemand den Kram noch händisch mit Buntstiften gefälscht hat oder ob es automatisch generiert wird, macht doch keinen Unterschied.
 
  • Gefällt mir
Reaktionen: Beero84, Lillymouche, DiamondDragon und 5 andere
Habe schon einige dieser KI Videos gesehen in denen verschiedene Clips aus Tierrettungen zusammengeschnitten wurden samt KI generierter Stimme und Geschichte. In der Beschreibung findet man dann einen Link für irgendwelche Spenden.

Inzwischen nahezu alles nur zum kotzen im Internet.
 
Ich verfolge seit vielen Jahren IOTA. Das ist ein Projekt im Cryptospace, mit dem Unterschied dass es sich dabei nicht um den x-ten Abklatsch von irgendeinem Shitcoin handelt, sondern dass da wirklich an Technologien gearbeitet wird.

Zusammen mit Dell arbeitet IOTA innerhalb des Projekts Alvarium an einer Trust Fabric für vertrauenswürdige Daten. Ich hab keine Ahnung wie genau das funktioniert, aber irgendwie sollen Daten mittels Signaturen fälschungssicher gekennzeichnet werden.

Ich hab mich in der Richtung schonmal gefragt, wie in Zukunft Deepfakes und sonstige manipulierte Medien erkannt werden sollen. Das ist ja heute schon echt abartig, was man mithilfe von KI alles an Bildern und Videos erstellen kann.

Langfristig bleibt da doch nur die Möglichkeit, dass alles, was Bild oder Ton aufnehen kann mit Technologien zur digitalisierten Signatur versehen wird, die dem Original eben diese Signatur aufdrücken und alles, was ohne eine solche Sognatur im Netz verbreitet wird pauschal als Fälschung gelten muss, da nicht entscheidbar ob es nun echt oder manipuliert ist?

Oder welche anderen Möglichkeiten gibt es da?
 
  • Gefällt mir
Reaktionen: Qyxes, Flaimbot und HardcoreGaymer
Youtube schaft es nichtmal fakenews und fakten und o. evidenzbasierte Videos zu händeln. Als ob die Ressourcen dafür freischaufeln und recharieren was KI inhalte sein könnten und was nicht. Die müssten dafür selbst eine KI dazu schalten. Das Schaft ja ein normaler Mensch gar nicht.
 
  • Gefällt mir
Reaktionen: DiamondDragon und LamaTux
Zurück
Oben