@kellyfornia Was in diesem Beitrag passiert, ist eine klassische Mischung aus Kausalitätsverwechslung, Anekdoten-Beweisführung und Verallgemeinerung aus persönlicher Wahrnehmung. Da wird behauptet, Facebook würden „kaum Menschen unter 40“ nutzen – ohne eine einzige valide Quelle. Offizielle Nutzungsdaten zeigen jedoch, dass Facebook in Deutschland weiterhin signifikante Nutzeranteile in vielen Altersgruppen hat, gerade auch in der 30–49-Jährigen Gruppe (Statista 2025: rund 60 % der 30–49-Jährigen nutzen Facebook regelmäßig; bei 18–29 sind es zwar weniger, aber nicht vernachlässigbar). Diese Aussage wirkt wie ein selbstbestätigendes Vorurteil, nicht wie empirisch belegte Realität.
Dann wird suggeriert, dass ältere Menschen eher Telegram oder Facebook als „seröse Quelle“ nutzen, während junge Menschen immun gegen Fake News wären. Das ist wissenschaftlich schlicht falsch. Studien des Reuters Institute for the Study of Journalism zeigen über mehrere Jahre hinweg, dass Desinformation nicht hauptsächlich ein „altes Leute Problem“ ist, sondern generelle medialen Kompetenzen und Kontextwissen erfordert. Menschen jeden Alters teilen Fake News, wenn sie kognitiv überfordert sind oder in sozialen Gruppen dafür Bestätigung erfahren. Die vereinfachte Zuschreibung, junge Menschen seien automatisch differenzierter, ignoriert jahrzehntelange Befunde aus der Kommunikationsforschung und Sozialpsychologie.
Die Beschreibung von Instagram-Phänomenen wie „ältere Männer schreiben da irgendwas“ ist eine anekdotische Evidenz, die keiner systematischen Beobachtung standhält. Eine einzelne lustige oder peinliche Beobachtung wird hier als Beweis für eine ganze Alterskohorte verkauft. Das ist ein klassischer Fall von Hasty Generalization – man schließt von einer kleinen Stichprobe auf eine ganze Population. Wenn jemand das als Argument nutzt, hat er die Grundregeln der Statistik nicht verstanden: eine Anekdote ist kein Beleg für eine These.
Dann heißt es: „Fake News und KI-generierte Inhalte seien kein Erzeugnis sozialer Netzwerke, sondern würden lediglich dort verbreitet.“ Rein logisch gedacht ist das ein Fehlschluss: Plattformen sind nicht neutrale Verteiler, sie strukturieren und priorisieren Inhalte algorithmisch. Das bedeutet, sie sind nicht Nebenprodukte der Verbreitung, sondern aktive Verstärker. Algorithmen wählen aus, was sichtbar wird, und belohnen Inhalte, die emotional aufgeladen, polarisiert oder sensationsorientiert sind – exakt jene Dynamiken, die Fake News und manipulative Inhalte profitabel machen (Benkler et al., Network Propaganda, 2018). Wer das als „nur Nutzungsverhalten“ darstellt, verkennt den entscheidenden Mechanismus: Enorme Reichweiten entstehen nicht zufällig, sondern durch algorithmische Auswahl.
Schließlich wird eine Art moralische Entlastung versucht: Soziale Netzwerke seien nicht schuld an Fake News, denn diese wären auch ohne sie da. Das ist rhetorisch geschickt, aber faktisch irrelevant: Selbst wenn Fake News theoretisch ohne Netzwerke existieren könnten, sind soziale Plattformen heute die dominanten Verbreitungswege mit exponentieller Reichweite. Eine Kernaussage der Forschung lautet: Ohne die algorithmische Verstärkung hätten viele manipulative Inhalte nie ein signifikantes Publikum erreicht. Soziale Netzwerke schaffen Reichweite, nicht nur Verbreitung.
Wenn du all diese logischen Mängel, empirischen Fehleinschätzungen und unhaltbaren Verallgemeinerungen zusammennimmst, bleibt am Ende kaum ein Argument übrig, das einer kritischen Prüfung standhält. Der Beitrag basiert überwiegend auf subjektiven Wahrnehmungen, nicht auf belastbaren Daten, er vermengt Korrelationen mit Kausalität und nutzt Anekdoten als Argument. Das führt nicht zu einer informierten Diskussion, sondern zu einer verzerrten Wahrnehmung der Realität, in der eigene Vorurteile wie Fakten aussehen sollen. Wer ernsthaft über Medien, Altersgruppen und digitale Informationsökonomie sprechen will, muss mehr leisten als diese oberflächlichen Stereotype.