Danke für den Test, ist sehr aufschlussreich. Die Aufgaben bzw. die teilweise stark mangelhaften "Lösungen" zeigen, dass von "Intelligenz" keine Rede sein kann. Was die Software bzw. die Algorithmen können, ist, Texte zu aggregieren. Dabei sind sie offenbar deutlich besser geworden und können dazu dienen, Routineaufgaben zu erleichtern.
Aber eine intelligente Lektüre können sie nicht, sie können eben noch nicht verschiedene Textsorten auswerten und miteinander in Beziehung setzen (Anspielung auf Daten aus Tabelle, Fussnoten und Text).
Was mir zudem auffällt: Gerade NotebookLM strotzt nur so von aufgeblasenen Formulierungen, die zur Sache nichts beitragen, dem Text aber eine subjektive Färbung geben, die stellenweise völlig falsch wirkt und dadurch manipulativ aufgefassst werden könnte (*Es ist festzuhalten", "... Play fiel bereits im Jahr 2023 ... auf", "Es ist wichtig zu beachten, dass die Aktivität von Ransomware-Gruppen dynamisch ist und sich die Bedrohungslage ständig verändern kann"). Offenbar will NotebookLM besser 'tönen' als es ist. Dagegen ist der schnörkellose Stil von Adobe direkt eine Wohltat im Sinne von "Fakten, nichts als Fakten".
Mit andern Worten:
Es gibt bei AI-Anwendungen nach wie vor drei Baustellen, die weit entfernt von einer 'Fertigstellung' sind:
Aber eine intelligente Lektüre können sie nicht, sie können eben noch nicht verschiedene Textsorten auswerten und miteinander in Beziehung setzen (Anspielung auf Daten aus Tabelle, Fussnoten und Text).
Was mir zudem auffällt: Gerade NotebookLM strotzt nur so von aufgeblasenen Formulierungen, die zur Sache nichts beitragen, dem Text aber eine subjektive Färbung geben, die stellenweise völlig falsch wirkt und dadurch manipulativ aufgefassst werden könnte (*Es ist festzuhalten", "... Play fiel bereits im Jahr 2023 ... auf", "Es ist wichtig zu beachten, dass die Aktivität von Ransomware-Gruppen dynamisch ist und sich die Bedrohungslage ständig verändern kann"). Offenbar will NotebookLM besser 'tönen' als es ist. Dagegen ist der schnörkellose Stil von Adobe direkt eine Wohltat im Sinne von "Fakten, nichts als Fakten".
Mit andern Worten:
Es gibt bei AI-Anwendungen nach wie vor drei Baustellen, die weit entfernt von einer 'Fertigstellung' sind:
- Quellen. Weil die AI-Anwendungen von BigTech zu früh kommerzialisiert werden wollen, arbeiten sie zu einem bedeutenden Teil mit Quellenmaterial, welches dafür schlicht ungeeignet, dafür gratis ist (beispielsweise Posts auf Meta-Diensten oder X).
- Intelligentes Lesen im Sinne von verstehen und kombinieren: Die AI-Anwendungen haben bisher nicht den Hauch eines Beweises geliefert, dass sie ein multimediales Dokument richtig interpretieren können. Teilweise fehlen ihnen dafür noch die technischen Mittel (beispielweise um Graphen richtig auszuwerten und in Beziehungen zueinander zu setzen, die nicht anderweitig im Text explizit genannt werden); teilweise dürften die Algorithmen aber auch 'frisiert' sein, weil sich die US-Techfirmen panisch davor fürchten, allenfalls ein Bild mit Brustwarzen oder gar eine kritische Interpretation von (aktuellen oder historischen) Lügen im politischen Kontext zu liefern
- Formulierung: Der stellenweise unnötig komplizierte Satzbau bzw. die aktive Verwendung von formelhaften Ausdrücken könnte mit dem oben genannten 'Frisieren' zusammenhängen, ist aber auch Ausdruck eines (meines Erachtens verlogenen) Kommunikationsstils des "Immer ein bisschen unpräzis bleiben, um nicht ganz genau sein zu müssen". Im Journalismus war das im (angelsächsischen) Raum schon in den 90er Jahren beliebtes Stilmittel und lief unter dem Stichwort "intelligent guessing". Diese beklagenswerte Haltung eines "Das MUSS doch wahr sein" hatte enorme Auswirkungen auf die Glaubwürdigkeit der Medien, lange vor der gezielten Kritik an den "Mainstreammedien" oder der gezielten Vernichtung von journalistischer Exzellenz durch "flood them with shit".