AI-Videos zwischen Real & Fake unterscheiden? Eine Gefahr für die Gesellschaft...

JumpingCat schrieb:
Dann musst du am Ursprung ansetzen und nicht bei deinem der nur die Technik nutzt / anbietet. Die Quelle sind hier vor allem Universitäten mit ihrer Forschung.
Wir stellen also Forschung zukünftig ein? Oder wie ist der Satz zu verstehen?
 
Drewkev schrieb:
Der Mensch ist da das Problem, nicht die "KI".
/thread?

K3ks schrieb:
X hat die Stulle geklaut.
Inszeniert, die Polizei hat eine Falle gestellt. Eigentlich wollten wir die Stulle auch nie haben, sie ist wertlos/gefährlich/Geldverschwendung, X hat uns einen gefallen getan! Es ist egal dass X die Stulle geklaut hat, wir kriegen sie wieder/sie wird zurückkehren. Es war kein Diebstahl, viel wichtiger ist die Stullerei, die wird jetzt gegen den Konkurrenten Reiscracker.AG vorgehen!

Die unflätige Stulle hat den Diebstahl doch erlaubt, sie steckt unter einer Decke mit X! X hat die Stulle nicht geklaut, er hat sie gegessen! X ist unschuldig, die Stulle war beim vermeintlichen Diebstahl doch gar nicht mehr präsent...
 
  • Gefällt mir
Reaktionen: bossbeelze
@JumpingCat
Deine Formulierung im Kontext zur Frage des TE impliziert das irgendwie. Daher die Frage.

"Wie stoppt man den Kram von ..." -> "Du musst am Ursprung ansetzen" -> "Bei den Universitäten mit ihrer Forschung".
 
@Vigilant Es ist eine theoretische Möglichkeit, welche man aber nicht umsetzen kann. Was will ich stoppen wenn die Grundlagen allgemein bekannt sind (freie Paper) und es jeder nachbauen kann. Man könnte den Fortschritt damit verlangsamen aber nicht aufhalten. Jeder kann das zuhause einsetzen, den "Code" untersuchen und optimieren.

Es ist wie gesagt, ein gesellschaftliches Problem. Rückgängig kann man das nicht mehr machen.

Das ist ähnlich sinnvoll wie z.B. in Schulen die Evolutionstheorie zu verbieten und nur irgendeinen "Führerkult" zu lehren. Damit ist nicht nur die USA gemeint. Dennoch wird der Rest der Welt die Wissenschaft weiter entwickeln. Nur manche wollen halt absichtlich abgehängt werden.

Oder Autos. Es gibt Regeln was erlaubt ist und was nicht. Aber nicht nur für AI haben wir das hier aktuell noch nicht.
 
Subversiver schrieb:
Youtube Videos/Shots mit sog. Clickbaits

Alle Shorts bei YT sind Klickbaits und wenn auch noch seitenverkehrt Abwasch von TT.
Eigentlich ist alles bei YT, TT und wie sie alle heissen Clickbait.

Abgesehen davon braucht es zum Faken keine AI.
Die macht es nur leichter.
 
  • Gefällt mir
Reaktionen: Abulafia, Subversiver und JumpingCat
Drewkev schrieb:
Ich kann mit dieser "Frage" nichts anfangen
Ah, entschuldigung.
/thread ist evtl. aus dem Imageboard-Bereich, wer weiß... Jedenfalls ist die Bedeutung so in die Richtung:
Thread fertig/Problem gelöst/Frage geklärt/Thema erledigt

Wie dem auch sei, ich stimme hier komplett zu:
Drewkev schrieb:
Der Mensch ist da das Problem, nicht die "KI".
Daher hier ansetzen und nicht bei der KI bzw "KI".
 
  • Gefällt mir
Reaktionen: Drewkev und JumpingCat
Immerhin hast es ja noch selbst gemerkt. Wieso man gezielt nach YouTube oder TikTok geht und sich dann über gesellschaftlichen Verfall beschwert kann ich aber nicht nachvollziehen. Medienkompetenz schließt auch ein, dass man von solchen Plattformen entsprechendes erwartet, und nicht plötzlich überrascht ist. Knappe Sache bei dir.
 
Subversiver schrieb:
Wie kann man das stoppen?
Wie von vielen hier geschrieben: auf individueller Ebene einfach möglich, durch Vermeidung bestimmter Dienstleistungen oder Produkte. Auf nationaler Ebene, zumindest theoretisch denkbar in bestimmtem Umfang. Auf globaler Ebene, unvermeidbar. Und das ist in vielerlei Hinsicht ein Problem.

Zunehmende Automatisierung, überflüssig machen von immer mehr Jobs, gleichzeitig aber kein Gesellschaftliches System, um mit Arbeitslosenquoten von 20% und mehr umzugehen. Das nur zum Thema Arbeitsmarkt.

Die Medienperspektive auf KI und Nachrichten, Berichterstattung, Propaganda, Falschmeldung etc ist leider nicht weniger problematisch. Die Strategien, die besonders (wenn auch nicht nur) von Russland eingesetzt werden, können in so einem Umfeld richtig aufgehen. Nicht nur "Lügen verbreiten", sondern dafür sorgen, dass genügend Leute in der Bevölkerung das Konzept einer objektiven Realität in Frage stellen, die in der Politik/gesellschaftlichen Debatte eigentlich geteiltermaßen für alle am Tisch gemeinsame Richtschnur sein sollte.
Unter solchen Bedingungen kann es dazu kommen, dass autokratische Systeme fast schon notwendig werden, weil Staaten trotz der KI Welt auf gewisse Richtschnuren angewiesen sind. Wenn aber jede "Nachricht" ein Fake oder Wahrheit sein kann, und ich als Normalo/Leihe nicht mehr sicher sein kann, das eine vom anderen unterscheiden zu können, dann geht entweder die Richtschnur flöten oder es gibt eine Instanz mit Autorität, die per gegebener, durchgesetzter und akzeptierter Autorität, die "Wahren Nachrichten" verbreitet.
Basically, we're fucked.

Sehr interessanter Artikel von Nick Bostrum, geschrieben 2019. Kurz vor dem großen KI-Boom. Ich würde sagen, damit haben wir die erste schwarze Kugel gezogen.

https://nickbostrom.com/papers/vulnerable.pdf
 
Die Antworten sind ja doch vielschichtig. Jedenfalls danke für eure Rückmeldungen☺️
 
  • Gefällt mir
Reaktionen: Krik und JumpingCat
oicfar schrieb:
Also bei dem Video erkennt man es gleich, dass es KI sein muss.
Inzwischen erkennt man es eben nicht gleich.

Ich hab in letzter Zeit häufig Videos und Bilder gesehen, wo sofort kam "ki Bilder" und am Ende war's keins(Bild war älter als KI). Da wurde bis aufs Messer diskutiert und einer war schlauer als der nächste.

Man erkennt es inzwischen nicht mehr wie noch am Anfang, wo die Leute 6 Finger hatten. Oder weil das Video besonders stark weichgezeichnet ist oder einen bestimmten Farb- oder "Zeichenstil" hat.

Daher sind posts wie "benutzt den Verstand" usw. komplett lächerlich.

Auch die "plattform vermeiden" tipps sind lächerlich. Dann landet das Problem irgendwann auf der nächsten Plattform.

Und viele LLMs kann man einfach downloaden und zuhause ausführen. Das kann jeder, selbst im Dschungel von Brasilien. Das sollte man auch nicht vergessen -> die Mehrzahl der Bevölkerung kommt inzwischen aus Regionen wie Indonesien, Brasilien, Indien und Pakistan. Auch die können lesen und KI tools Bedienen.

Das Problem wird sich stark vergrößern. Das ganze hat auch schon einen Namen: "Dead Internet".
Es werden quasi per KI Inhalte erstellt und die werden von Bots geliked.
 
  • Gefällt mir
Reaktionen: Nilson und BFF
cruse schrieb:
Man erkennt es inzwischen nicht mehr wie noch am Anfang, wo die Leute 6 Finger hatten. Oder weil das Video besonders stark weichgezeichnet ist oder einen bestimmten Farb- oder "Zeichenstil" hat.
Die Qualität der KI-Bilder/-Videos ist schon sehr gut geworden. Trotzdem kann man noch (wenn man sich die Mühe gibt) diese erkennen. Vielleicht sehe ich es so, weil ich seit sehr langer Zeit fotografiere und mal einen anderen Blick habe. I don't know.
cruse schrieb:
Daher sind posts wie "benutzt den Verstand" usw. komplett lächerlich.
Vom Verstand habe ich auch nichts geschrien. ;) Nur mal so.

Seit Jahren haben wir die Entwicklung in die Richtung, dass nur konsumiert aber nichts hinterfragt wird. Auch die Shorts tragen dazu bei. Vielleicht sollte man das eher hinterfragen.
cruse schrieb:
Auch die "plattform vermeiden" tipps sind lächerlich. Dann landet das Problem irgendwann auf der nächsten Plattform.
Man könnte aber auch durch die Abwendung ein Zeichen setzen damit sich was ändert.
cruse schrieb:
Das Problem wird sich stark vergrößern. Das ganze hat auch schon einen Namen: "Dead Internet".
I know. Finde ich Entwicklung auch bedenklich.
 
cruse schrieb:
Auch die "plattform vermeiden" tipps sind lächerlich. Dann landet das Problem irgendwann auf der nächsten Plattform.
Warum? Wenn alle Plattformen früher oder später kompromittiert sind, lässt man diese halt komplett liegen. Das hätte sogar den Vorteil, sich der inzwischen mannigfaltigen Manipulation-Systeme zu entziehen.

Problem ist doch heute, dass ganze Generationen glauben, nicht mehr ohne auszukommen. Was nichts anderes ist als (digitale) Abhängigkeit bis hin zu pathologischer Sucht. Statt ( generellen) Verzicht auf diese (verseuchten) Plattformen, wird verzweifelt nach einem Ersatz gesucht.

Und ja, wir bekommen ein Problem mit rekursiven KI-Input, weil selbst KI nicht erkennt, wie Inhalte entstanden sind, weil sie absolut null Welt-Verständnis besitzt. Selbst ein sechsjähriges Kind hat ein absolut überlegenes Verständnis der es umgebenden Welt und wie sie funktioniert.

So trainiert sich die KI zunehmend mit eigenen Inhalten. Unbeaufsichtigtes und unkontrolliertes Maschine Learning produziert dann zunehmend Grütze.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Krik
Helfen würde es auch, wenn wir das Unbewusste und die körperlichen Reaktionen (ohne exteren Gerätschaften) besser erfassen bzw. erfühlen könnten (z.B. flaues Bauchgefühl), wenn wir AI-Inhalte konsumieren welche in noch so kleinen Werten vom Realen abweichen

aber mit der Zeit wird es wohl so weit perfektioniert - dass man das selbst mit geübtem Auge (z.B. als Fotograf) nicht mehr wahrnehmen dürfte

https://www.nature.com/articles/s41598-025-15579-4 The uncanny valley effect and immune activation in virtual reality

https://www.uni-hamburg.de/en/newsroom/presse/2025/pm33.html
Virtual Reality Study
Uncanny virtual humans trigger immune response
 
oicfar schrieb:
Trotzdem kann man noch (wenn man sich die Mühe gibt) diese erkennen. Vielleicht sehe ich es so, weil ich seit sehr langer Zeit fotografiere und mal einen anderen Blick habe. I don't know.
Ja, man erkennt es noch. Aber wir reden hier von wie vielen Jahren seit den ersten KI Videos dieser Art? 2-3?
Sollte das so rasant weiter gehen, dann wird man es nicht mehr so einfach erkennen. Insgesamt verändert sich die Videoästhetik. Bereits vor KI waren Filter und "Kardashian" Makeup sehr beliebt, so dass konturlose und glatte/puppenhafte Gesichter überall zu sehen waren. Diese von KI zu unterscheiden wird schwieriger. Ich sehe auch immer öfter Szenen aus alten Kinofilmen oder Serien mit einer Art "KI-Filterlook". Ob das aus Gründen des Copyrights gemacht wird, ob es zur Bandbreitenoptimierung eingedampft wird oder weil Leute an diesen Look langsam gewöhnt sind, keine Ahnung.
Es wird aber immer schwieriger, das alles auseinanderzuhalten.
 
Das Problemchen das wir jetzt damit haben wird in wenigen Jahren zum echten Problem.
Viele erkennen jetzt schon nicht was real ist und was nicht, noch kann man aber mit etwas Eigeninitiative zumindest bei relevanten Sachen die Quellen überprüfen, das wird jedoch nach und nach verschwimmen was zum echten Problem wird.
  • derzeitige Tendenz - nach unten
  • Ausgang - ungewiss...
 
bemerkenswert ist doch auch finde ich dass die AI Videos durchaus auch so vom Set, Stimmung, Licht etc und Schnitt Zoomen etc her doch oft echt richtig gut sind auch bei manchmal einfachen Prompts.

Und die wirklich grossen AI Zentren entstehen doch erst langsam - das doch bisher alles bisher dann im Vergleich mehr "Hobby" :D

Und auch manche der "Banned Sora 2" Videos auf YT sind doch auch einfach spassig - finde schon erstaunlich was das aktuell an witzigen coolen Sachen von jedem inzwischen umgesetzt werden kann.

Auch wenn man öfters noch was an AI Fehlern sieht - die gesamte Umsetzung ist oft einfach stimmig.
 
Zuletzt bearbeitet:
Winston90 schrieb:
dann geht entweder die Richtschnur flöten oder es gibt eine Instanz mit Autorität, die per gegebener, durchgesetzter und akzeptierter Autorität, die "Wahren Nachrichten" verbreitet.
Basically, we're fucked.
Vielleicht ergeben sich ja auch neue Strukturen in der Gesellschaft über die die Menschen gesichert Informationen austauschen können. Wie das genau aussehen soll, keine Ahnung.

Gab's so ähnliche Befürchtungen nicht auch damals als "jeder" anfangen könnte Bücher bzw. Zeitungen zu drucken? Auch wenn das hier nochmal ne ganz andere Dimension hat.
 
Subversiver schrieb:
Wie kann man das stoppen?
Die allg. Entwicklung kann man nicht stoppen, die Menschheit ist am A**** also was solls? Ich bin jedenfalls mehr oder weniger froh, nicht mehr 15 zu sein. Wie es auf der Erde in 50 Jahren aussieht werde ich, mit an 100% grenzenden Wahrscheinlichkeit, zum Glück nicht mehr mitkriegen.
 
  • Gefällt mir
Reaktionen: Organix und Winston90
Zurück
Oben