Das Video kenne ich sogar - ich widerspreche dem allerdings größtenteils.DeusExMachina schrieb:
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
__________
Zum Thema viel Glück OpenAI wird das schon machen.... ganz bestimmt
Viele Menschen argumentieren ja gegen wissenschaftliche Recherche per AI, wegen des "AI Bias". Hat denn Google Scholar, IEEE, ... keinen Bias? Wann ist denn tatsächlich das letzte Mal ein Mensch in die Bibliothek gegangen und hat seine Recherche ausschließlich manuell und mit Büchern gemacht? (und selbst dann bist du ja dem Bias der Bib unterlegen: welche Werke wurden ausgewählt und ausgestellt, welche schwer zu finden oder nur 1x vorhanden und deshalb ständig vergriffen usw.).
Und zur Wahrheit gehört definitiv: Dinge wie NotebookLM, Deep Research u.v.m. funktionieren unglaublich viel besser als Google Scholar & Konsorten früher.
Unabhängig davon ist das meiste, was das Video erwähnt, ohnehin unwissenschaftliches Vorgehen. Internetseiten, Blogs, ... sind keine wissenschaftlichen Quellen.
Selbst das Beispiel im Video mit dem braunen Zwerg sagt ja selbst direkt: ein YouTube Video, welches dann von KI weiter verwendet wird und von Menschen so übernommen. Natürlich gibt es Menschen, die das machen (und auch KI, die das tut), aber das ist schlichtweg keine wissenschaftliche oder sonst wie seriöse Quelle.
Auch wenn ich generell kurzgesagt durchaus schätze und viele Videos von denen gerne gucke: die sind da ihrem eigenen Bias ganz stark unterworfen => sie wollen überleben, in einem Zeitalter, indem sie durch Technologie weniger relevant werden + sie meinen, ihre Recherchen seien "top notch". Und ja, sie sind deutlich besser als viele anderen, aber das macht sie noch lange nicht verlässlich oder zur Primärquelle oder überhaupt in irgendeiner Art und Weise wissenschaftlich.
Ich kenne auch die Studie über die Veränderung der Sprache in wissenschaftlichen Texten nach Einführung von ChatGPT & Co. Und auch da sind zwei entscheidende Fakten nicht berücksichtigt:
- Die Studie sagt selbst, dass das in X Fällen kein Plagiat, "AI Ghostwriting", ... sein muss, denn viele Forscher nutzen KI mittlerweile schlichtweg für den Spell- und Grammar-Check (ich persönlich auch, ist schlichtweg einfacher, schneller, komfortabler). Den Inhalt einer Aussage betrifft das nicht und den kontrolliert man selbstredend immer noch, aber die Wortwahl von bestimmten Formulierungen wird natürlich hier und da von der KI anders vorgeschlagen, um besser in den aktuellen Satzbau zu passen.
- Diverse der analysierten Studien sind Sozialwissenschaften und dergleichen. Also die typischen Laberfächer, wo die Vergleichbarkeit, Reproduzierbarkeit, Objektivität, ... auch schon vor KI nicht gegeben war - also zumindest nicht in dem Maße, wie es bei MIN-Disziplinen der Fall ist. Und ganz ehrlich, bei einem Mathe-, Informatik-, Chemie-, Physik-Paper usw. ist es auch vollkommen egal, ob die KI die Wortwahl umgestellt hat. Formeln, Beweise, statistische Evidenz, ... sind das einzig relevante in dem Feld. Das ist auch nach KI-Assistenten nicht anders.
Ja, es gibt diverse kritische Entwicklungen. Mir gefällt z.B. der Spam auf YouTube und die seichte Unterhaltung, mit der die Jugend von heute verseucht wird, auch nicht. Aber gerade bei seriöser Arbeit, insbesondere wissenschaftlicher Arbeit, ist KI schon ein großer Schritt vorwärts.
Kannte ich noch nicht, schau ich mal rein.Duststorm schrieb:Hier auch eine gute Reportage, behandelt das gleiche Thema: -> Arte Mediathek <-
Zuletzt bearbeitet: