Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGoogle AI Overviews: Wenn sich die KI auf KI als Quelle beruft
Siehe die ganzen Trotte, - Sorry aber anders kann man diese Menschen nicht bezeichnen - die für so ein Labubu anstehen und dem Hersteller 3 Stellige Beträge in den Rachen werfen.
Bei einer Konsole könnte ich das anstehen ja noch verstehen. Aber so ein Kuscheltier?!
Da ist ganz viel FOMO am Werk.
Kennt noch einer den Film "Idiocracy"? - die Zukunft gefällt mir immer besser^^
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
AI-Detektoren sind ehrlicherweise sehr unzuverlässig. Es kommt nicht selten vor, dass falsch-positive Ergebnisse herauskommen. Wenn ich einen Text aus einem kleineren, unbekannten Blog nehme, komme ich auf andere Ergebnisse, wenn ich einen x-beliebigen Beitrag von einem journalistischen Großmedium nehme. Wenn die AI-Detektoren so trainiert sind, dass sie auf Beiträge von ebendiesen großen Medien reagieren, dann ist es nur logisch, dass anderes, in einem komplexeren Schreibstil oft als AI-geschrieben bewertet wird. Das habe ich mit älteren Texten geprüft, wodurch eher ausgeschlossen ist, dass eine AI am Werk war.
Früher hat Technik noch wirklich Fortschritt gebracht: das erste Handy, das erste DSL, das waren echte Sprünge! Heute nennt man es „KI“, aber in Wahrheit ist’s nur Spielerei, die keiner braucht. Jetzt zitiert die KI sich sogar selbst.
Komisch ich hatte bis jetzt mit dem overview keine fehlet...aber in jetztzigen Zeiten ist alles möglich!
Aber ihr seht das alles negativ : immerhin können die Flat-earthler , Echsenmenschen Fans behaupten irgendwann sich nur bestätigt fühlen. Und sucht der Mensch eh nicht nur Bestätigung das was er denkt und sagt richtig iat^^
Viel problematischer finde ich dass ChatGPT und Konsorten aus Bequemlichkeit oder Unwissen als alleinige Informationsquelle genutzt wird. Die Antworten werden viel zu oft kritiklos übernommen.
Tja, wenn die meisten Menschen schon daran scheitern, Quellen zu hinterfragen und pauschal alles glauben, was irgendwo steht, wie soll dann eine KI (wo das I ja noch nicht mal nicht korrekt ist) fehlerhafte Quellen identifizieren können?
Treffe ich auch immer häufiger an. Teilweise lese ich von Programmierkollegen, seht her, selbst ChatGPT kann das nicht lösen, so quasi als Bestätigung vor einem unlösbarem Problem zu stehen. Ich habe echt langsam das Gefühl Idiocracy wird real.