News Neue Regeln und Tools: YouTube will generative KI-Inhalte kennzeichnen oder löschen

shortex schrieb:
Das Schaft ja ein normaler Mensch gar nicht.
Das ist eigentlich ganz einfach. Du musst nur ein paar von den Schwurblervideos ansehen, schon ballert dich der Algorithmus damit zu. Jetzt muss Youtube nur noch alles löschen was der User vorgeschlagen bekommt.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Prinzipiell begrüße ich eine Kennzeichnung, zwar eher freiwillig wegen Creator-Ehre und so, aber für eine funktionierende Selbstkontrolle hatte man ja jetzt ein gutes Jahr Zeit in dem auf herausragende Weise gezeigt wurde, das man sich um solch nutzlose Arbeitsschritte einen Schei* kümmert. Sowas stört nur das Business und sorgt für ein verweichlichtes Meindsätt!1elf

Also wird es eben wieder die altbekannte Google-Algo-Schrotflinte richten müssen. Neben ein paar Richtigen wird es auch ein paar Kollateralschäden geben. Aber ist egal, täglich werden ja Millionen Stunden an neuem Material hochgeladen also was solls.
 
Nachdem wahrscheinlich bald jeder in irgendeiner Form KI bei Erstellen von Medien nutzt, wäre es vielleicht langfristig zeitsparender, wenn eher die Leute ihre Videos markieren, die keine KI verwenden.
 
  • Gefällt mir
Reaktionen: DiamondDragon, ruthi91, pjo und 2 andere
KI wird angegriffen solange YT das nicht selbst im Griff hat. Ist überall anders auch so. "Wir müssen sicher sein daß AI SICHER ist."

Sicher heißt, wir haben null Ahnung aber viel Schiß, also alle anderen aussperren.

Das alte Lied, queue Rammstein.
 
  • Gefällt mir
Reaktionen: Chesterfield
Und wieder ein weiteres Zeichen, was drangepappt wird und am Ende niemanden interessiert. Das ist wie mit der Reklame: mittlerweile schreiben viele "Dauerwerbesendung" hin, weil die nicht wissen, ob die Tapete im Hintergrund jetzt Reklame ist, oder nicht. Also Zeichen ran. Mit KI dann genau das gleiche und die Leute gewöhnen sich dran. Die, die dann scheiße bauen, markieren ihre Videos natürlich nicht so
 
  • Gefällt mir
Reaktionen: Qyxes
Solange sie out of Style nicht löschen ist es mir egal. Fred Durst als Putin ist einfach cool. Zusammen mit Biden, Xi und Kim. Selenskyj als DJ Lethal hätte ich fast vergessen.
 
  • Gefällt mir
Reaktionen: Volvo480
KI Inhalte zu kennzeichnen macht für mich nur Sinn, wenn es einen dauerhaften Filter dafür gibt.
Vmtl. wird man den nur als zahlender "Premium" Nutzer bekommen, womit nichts geholfen ist.
 
Axxid schrieb:
Warum ist KI so ein großes, geschweige denn ein Neues Problem? Man hat doch vorher schon Bilder sowie Audio- und Videoaufnahmen manipuliert, generiert oder schlicht aus dem Kontext gerissen.

Ob jemand den Kram noch händisch mit Buntstiften gefälscht hat oder ob es automatisch generiert wird, macht doch keinen Unterschied.
Doch das ist ein Problem, da die Schwelle um so etwas zu manipulieren auf technischer Seite mittlerweile extrem niedrig geworden ist. Das ist vergleichbar mit den DDoS Toolkits die es jedem "Hans Wurst'" erlauben solchen Mist auf die Menschheit loszulassen ohne davon wirklich Ahnung zu haben.

Der Kampf gegen diese Flut von generisch generiertem Datenmüll ist eigentlich schon verloren und dieser ganze Social Media Müll ist der Brandbeschleuniger dafür.

Leider merken das die allermeisten Social Media Konsumschafe nicht.
 
  • Gefällt mir
Reaktionen: Dr. MaRV
KI interessiert mich zwar nicht so...
Aber wenn sie meinen es kennzeichnen zu müssen, ist doch okay... alles muss ersichtlich sein:freak:
Wenn, dann AI und so etwas bei rauskommt :daumen:

 
  • Gefällt mir
Reaktionen: DiamondDragon und dermatu
Mehr KI Inhalte sorgen am Ende dann auch für mehr KI Inhalte mit denen KIs trainiert werden mit dem Ergebnis Unbekannt. Gerade bei den kleinen aber feinen Fehlern die KIs machen, dürfte eine größere Daten-Basis mit mehr Fehlern das Ergebnis langfristig nicht verbessern.

Dass man sie am Ende markiert, kann für sowas helfen oder eben um generierten BS von Leuten besser kenntlich zu machen. Die Frage nur, wie genau sowas überhaupt funktioniert? Es gab ja vor ein paar Wochen nen Artikel der nen Leak von OpenAI Entwicklern betrifft, die intern zumindest zugegeben haben, dass die Erkennung weit schlechter funktioniert als es die PR darstellt...

Am Ende ist es eh nur eine Frage der Zeit, bis die Geld-geilen YouTuber mit Low-Quality Content sich und ihren Content durch KI ersetzen: ist billiger und man kann mehr Content generieren, der dann von mehr Leuten geklickt wird :evillol:
 
Internet selbst als Kommunikationstool ist für schon schwierig bis unmöglich filterbar für das menschliche Gehirn. Ich rede von der schieren Masse an Information, die ungefiltert durch die Hirnbahnen fahren dürfen. Wenn jetzt noch unterschwellig halbechte KI-generierte Inhalte dazu kommen, können wir den Laden eigentlich gleich dicht machen. Deshalb ist der Vorstoß von YouTube auch nur ein Tropfen auf den heißen Stein, wenn auch gerne gesehen.

Gerade die jüngeren Nutzer ab 14 Jahren, die einfach nicht Reflektionsbasis dafür haben, sollten - bei mangelhafter Bildung in dem Punkt und durch das momentane Nichtvorhandensein der härtesten Regulierung von suchttriggernden Hirnmanipulationen im Social Media Bereich - geschützt werden. Was der freidrehende Müll bei Erwachsenen macht, kann man ja inzwischen gut an 20% der Bevölkerung sehen.

Und nein, wir sind im Technikforum nicht diejenigen, die das betrifft. Denkt man. Wenn man sich manche Posts anschaut, sind aber auch die Technikaffinen davor nicht geschützt.
 
  • Gefällt mir
Reaktionen: Banjo
x.treme schrieb:
Können sie auch gleich den ganzen Low-Quality-Content gleich mitsperren, wie z.B. irgendwelche "Produkttests" die mit ner KI-Stimme das Datenblatt mit ein paar Stockfotos runterrattern etc. ;)
Genau dass habe ich mir auch gedacht. Diese sinnlosen Videos bei Denen die Top 5 Verkäufe bei Amazon automatisch vorgelesen werden und Test in der Überschrift steht. Und dann mit Amazon Affiliate Link darunter plaziert. Müssten schon lange mal weg.
 
Solus schrieb:
Nachdem wahrscheinlich bald jeder in irgendeiner Form KI bei Erstellen von Medien nutzt, wäre es vielleicht langfristig zeitsparender, wenn eher die Leute ihre Videos markieren, die keine KI verwenden.
...this! Das scheint mir die einzig sinnvolle Möglichkeit zu sein, Content Creators wirklich in die Verantwortung zu nehmen: Sie bestätigen zu lassen, dass keine KI-generierten Bildinhalte verwendet werden und diese Bestätigung mit einem Label auch öffentlich machen. Wenn sie es doch tun und erwischt werden, dann ohne viel Federlesens den gesamten Account sperren.
Für mich wären so markierte Inhalte dann eher eine Empfehlung, Win-Win auf beiden Seiten...
 
  • Gefällt mir
Reaktionen: Banjo
Naturtrüb schrieb:
Wenn sie es doch tun und erwischt werden, dann ohne viel Federlesens den gesamten Account sperren.
Ja, da wäre ich auch dafür. Muss schon weh tun wenn man es nicht angibt. Der Verlust eines größeren Accounts tut dann auch mal finanziell schnell weh.
 
x.treme schrieb:
Können sie auch gleich den ganzen Low-Quality-Content gleich mitsperren, wie z.B. irgendwelche "Produkttests" die mit ner KI-Stimme das Datenblatt mit ein paar Stockfotos runterrattern etc. ;)
das halte ich sogar für wichtiger. der ganze "clickbait" krempel und gesülze ohne inhalt verstopft die plattform; schlechter kann ki-generiertes nicht sein, eher besser.
 
  • Gefällt mir
Reaktionen: msv
ghecko schrieb:
Das ist eigentlich ganz einfach. Du musst nur ein paar von den Schwurblervideos ansehen, schon ballert dich der Algorithmus damit zu. Jetzt muss Youtube nur noch alles löschen was der User vorgeschlagen bekommt.
Oder wenn man irgendetwas zu E-Autos geschaut hat und dann mit Elon Musik Content und "dieser Wasserstoffmotor ist das Ende von Tesla !!!!!" Bombardiert wird...

Habe inzwischen YouTube Premium gekündigt und Kanäle die ich wirklich schaue in NewPipe hinzugefügt. Viel angenehmer zum schauen.
 
  • Gefällt mir
Reaktionen: RedSlusher
Rach78 schrieb:
Ich seh das schon kommen: "Kampf gegen KI Content" wird genauso ein Vorwand wie "gegen Kinderpornografie" um einfach zu löschen, zu zensieren und zu überwachen können. Man erzählt den Leuten halt irgendetwas damit sie etwas akzeptieren was sie sonst nie akzeptieren würden...
Rach78 schrieb:
In Zukunft wird es dann so laufen dass nach gutdünken irgendwelche Videos als "KI" generiert markiert werden und wenn du damit ein Problem hast und möchtest dass bestehendes Gesetz durchgesetzt wird du erstmal schön Geld in die Hand nehmen kannst und klagen....
Aus genau diesen genannten Gründen wird es hoffentlich die Möglichkeit geben es richtig zu stellen.
Das erwähne ich weil gerade Google sich da recht schwer tut und lieber alles und jeden mit Accountsperren "überfährt".

Was man aber abseits einer Klage dagegen tun weiß ich eben auch nicht.
Wenn jemand KI generierte Inhalte melden kann, muss es genauso gehen auch entsprechende Inhalte wieder zu korrigieren wenn fälschlicherweise entsprechend eingeteilt. Sonst wird es, wie du schreibst, ganz duster.
Ergänzung ()

AlphaKaninchen schrieb:
Elon Musik Content und "dieser Wasserstoffmotor ist das Ende von Tesla !!!!!" Bombardiert wird...
Oder das "Ende des Abendlandes oder Morgenlandes in 3 Monaten!111elf", je nachdem welcher Akteur wieder ein bezahltes Video drehen durfte...
Dazu einige Videos über wie toll Waffensystem xyz von land abc ist.
es ist zum kotzen wenn YouTube ein mal auf den Trichter kommt.
schaut man sich 2-4x irgendwelche Astronomie videos an, kommen plötzlich auch gerne mal esoterische in der liste auf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RedSlusher und AlphaKaninchen
Solange solche Videos 2 Wochen inkl. Meldung noch Online sind, passiert da gar nichts.

(
)

Bei Sekunde 15 geht der Scam los.
 
Zurück
Oben