News Google AI Overviews: Wenn sich die KI auf KI als Quelle beruft

Wakasa schrieb:
Seit ein paar Jahren rennen wir lachend in die Kreissäge.

Wenn dann, werden wir von verbödeten, gieriegen Amis in die Kreissäge getrieben.
Dass man ungefragt überall diesen Mist vorgesetzt bekommt, haben wir denen zu verdanken.
 
  • Gefällt mir
Reaktionen: blende11
Sinatra81 schrieb:
Ah ok, danke 🤦🏻
Ja vor allem Woke und Schwurbeln in einem Satz. Das ich das mal lesen würde in einem Satz hätte ich nicht für möglich gehalten. Was kommt als nächste? AFD ist pro Migration :D
 
  • Gefällt mir
Reaktionen: fram und Sinatra81
Na welch Überraschung und schlimmer wird das Problem von jetzt an auch nur noch, da immer mehr Teile des Internets "KI" generiert werden um dann von anderen "KIs" gelesen zu werden, die dann wiederum die Daten für sich nutzen usw. Dead Internet is real.

Und da sind wir noch vor dem schlimmen Teil, wo Google & Co. ihre "KI" Ergebnisse mit Werbung voll pflastern, was in Kombination mit den Halluzinationen und den "KI zitiert KI" Problemen dann zu einem Ergebnis führen könnte, dass noch mal ne Größenordnung unterhalb der normalen Suchmaschinen Ergebnisse ist.

Wahrscheinlich nicht morgen oder übermorgen aber die Chance, dass es so kommt ist leider ziemlich real.


aLanaMiau schrieb:
Was für eine eingeschränkte Sichtweise...
Im Gegenteil, der Artikel zeigt Probleme auf, die existieren und mit hoher Sicherheit dich sowie alle anderen Nutzer von "KI" betreffen werden.

"Eingeschränkt" ist da eher die Mentalität, die einfach alles hin nimmt ohne die Probleme sowie deren Auswirkungen zu realisieren.


aLanaMiau schrieb:
Verstehe das Problem ehrlich gesagt nicht:
Das Problem ist, dass die "Lösung" dir von Google & Co. "KI" sei dank als "DIE RICHTIGE" verkauft wird, mit 10-15%iger Wahrscheinlichkeit aber nicht mal nicht nur die richtige ist, sondern schlicht inexistent ist.

Und im Gegensatz zu Suchergebnissen, wie du sie später in Äquivalenz setzt, wo nie klar ist ob dass was du siehst "das Richtige" ist und du erst mal drauf klicken musst um überhaupt sehen zu können ob das Ergebnis relevant ist, versichert dir hier "KI", dass sie das Ergebnis kennt und gibt dir im besten Fall noch Quellen... Die dann aber halt auch existieren müssen und für das gezeigte Sinn ergeben müssen.


aLanaMiau schrieb:
Ich würde sogar behaupten, dass KIs weniger Unsinn produzieren als viele Menschen.
So? Ohne Angabe von jeglicher Quelle oder Argumentation die deine Behauptungen untermauert, würde ich auf Basis der faktisch existierenden Halluzinationen, plus der heute schon vorhandenen nicht existenten Zitate von "KI" durch "KI" sowie dem von dir später hier rein gemischten Rekursions-Problem behaupten dass eine "KI" immer mehr Unsinn produziert als ein Mensch mit Wissen über die Materie.


aLanaMiau schrieb:
Wahrscheinlich wird die Qualität der Informationen in den nächsten Jahren dadurch insgesamt steigen.
Steile These. Wie genau soll dass passieren? Weil weniger Menschen verstehen was sie wieso tun und direkt "KI" zitieren? Weil Suchergebnisse immer weniger komplett gelesen werden, dank "KI Summary"?

Die Liste an Problemen die gegen deine These spricht ist endlos und gewichtig, weswegen ich die These für unmöglich begründbar oder irgendwie eintretbar halten würde.


aLanaMiau schrieb:
Das Zitieren von falschen Informationen und das rekursive Trainieren von KI-Modellen sind vollkommen unterschiedliche Abläufe - solche Rückschlüsse auch nur anzudeuten ist absurd. Spätestens wenn man merkt, dass einige der besten Open-Source KIs als Basis für ihr Training Chat-GPT Daten genutzt haben, merkt man was für ein Schwachsinn in der "News" prophezeit wird.
Wie oben von dir selbst genannt verstehst du das Problem nicht, vermischst dann aber X Aspekte zu einem um "KI" irgendwie zu rechtfertigen. Sowas halte ich persönlich für keine gute Herangehensweise und würde eher zur Vorsicht raten, bevor man sowas macht.

Auch passt das Thema Rekursion hier nur so tangential rein... Aber nur um dir noch mal nen kleinen Pointer zum Thema Rekursion zu geben, was du scheinbar auch nicht so ganz verstanden hast: schau dir mal ein paar der Paper an, die sich mit dem Thema Rekursion bei "KI" beschäftigen. Kleiner Spoiler: kein einziges der Paper kommt zu dem Schluss, dass das kein Problem ist. Lediglich die Schwere des Problems ist aktuell noch offen und wie oft eine Rekursion stattfinden muss, damit ein merklich negativer Effekt eintritt. Manche Paper liefern hier ziemlich besorgniserregende Ergebnisse, wohingegen andere erste nach vergleichsweise vielen Rekursionen zu einer merklichen Verschlechterung führen. Mangels an Standards für die Messung hier, ist sowas aber zu erwarten und es wird wohl noch ne Zeit brauchen, bis wir in dem Thema wirklich Gewissheit haben, dass Rekursion aber ein Problem ist, ist gesichert.


aLanaMiau schrieb:
Natürlich wird eine KI auch Quatsch erzählen - genauso wie man beim googlen nicht immer die richtige Antwort finden kann und der Professor von Nebenan auch nicht jedes Buch fehlerfrei wiedergibt
Wie oben schon erwähnt, beim googlen & Co. findest du aber nicht "DAS ERGEBNIS(TM)" sondern siehst XX Links mit kurzen Beschreibungen die du anklicken musst um überhaupt einschätzen zu können, ob das Ergebnis Sinn macht oder nicht. Von daher ist eine "KI Summary" hier eine komplett andere Liga was die vermittelte Konfidenz angeht.


aLanaMiau schrieb:
(Spoiler: Auch in Büchern steht Unfug).
Wenn du als Autor einer wissenschaftlichen oder technischen Publikation mit 10-15%iger Wahrscheinlichkeit Ergebnisse lieferst, die Halluzinationen sind oder nicht existent, dann warst du die längste Zeit Autor.
Oder wenn du im Job mit 10-15%iger Wahrscheinlichkeit Ergebnisse lieferst, die keinen Bezug zur Realität haben, dann hattest du die längste Zeit einen Job.


aLanaMiau schrieb:
Trotzdem hat mir die KI-Zusammenfassung schon oft Zeit gespart und mir sogar Infos geliefert, die ich so nicht einfach hätte ergoogeln können.
Ich hab eine Gegen-These: wenn die Google Suche besser wäre, hätte dir diese genau das gleiche Ergebnis in genau der gleichen Zeit geliefert. Fakt ist nun mal leider, dass Suchen die letzten Jahre in ihrer Qualität abgenommen haben. Was genau hier die Kern-Probleme sind, lässt sich meines Wissens nach auch gar nicht so genau beantworten, SEO sowie Werbung dürften zwei große Faktoren sein, Mangel an Investition aber sicher ebenfalls sowie ein Shift hin zu LLMs. "KI" steht die "Optimierung" die Search-Engines erhalten haben noch bevor und in Kombination mit den übrigen Problemen der "KI" ist es besser sich früher als später kritisch mit den Ergebnissen auseinanderzusetzen.

Was genau das ist, was der Artikel hier sowie das Original tun: sie verdeutlichen dir als Leser, dass du noch vorsichtiger sein musst, weil Zitate der "KI" die eventuell in Sachen Form und Inhalt richtig aussehen mit 10-15%iger Wahrscheinlichkeit schlicht inexistent sind...
 
Laphonso schrieb:
Ich glaube, dass es hier auch keinen Dissens gibt.
Laphonso schrieb:
Dass AI in vielen Fällen von Benutzer gesteuerten Analysen und beim Aggregieren in einem kontrollierten Umfeld mit "human QS" ein Riesengewinn ist, stellt niemand in Zweifel, denke ich.
Da ist der Output ja auch definiert.
Ich glaube der zitierte Kollege sieht das nicht so differenziert wie du, sonst würde er es nicht als Spielerei abtun. :P

Laphonso schrieb:
Im Prozess der Schulbildung aber ist es m.E. zu verbieten. Unterricht auf Smartphone und CHatGPT Basis ist eine Verlern-Veranstaltung, und genau dort muss man endlich den cut machen.
Den Genie bekommt man nicht wieder in die Flasche, und ein Verbot wäre am Ende so effektiv wie das Handy-Verbot in meiner Schulzeit. :D

Zumal ich gar nicht so weit gehen würde, AI für akademische Zwecke komplett abzutun; Ich nutze es selbst regelmäßig um mir ein Bild von der Forschung im Bereich XY zu machen, weils schlicht immens schneller und bequemer ist. Und wie du schon richtig sagst, kommt es ja auf die Parameter an, mit denen man eine KI nutzt: "Ist Gaming ungesund?" ist ein ganz anderer Promt als "Stell mir eine Übersicht aktueller Forschungsergebnisse und Studien zusammen, die den Einfluss von Gaming auf die Gesundheit zum Inhalt haben. Unterteile die Ergebnisse in die Bereiche "Positive Einflüsse", "Keine nennenswerten Einflüsse" und "Negative Einflüsse", und fasse die Ergebnisse in einem Absatz zusammen. Nutze Meta-Studien, falls diese verfügbar sind, und weise die Belastbarkeit einzelner Studien explizit aus."
Und dann hat man halt den Unterschied zwischen Larifari-Antwort und der Bereitstellung von echtem Wissen.

Ein viel gravierenderes Problem, als die Mängel aktueller AI-Lösungen, ist imo der technische Wissensstand des Lehrkörpers; Wenn es weiterhin den Nerd in der Klasse braucht, damit dieser den HDMI-Eingang am Beamer auswählt, dann wirds duster mit Kompetenz-Vermittlung im Bereich AI-Nutzung, weil der Großteil der Lehre selbst keinen Plan hat. Das wäre am Ende auch die Bruchstelle für alle Verbote, denn wenn es nicht wirklich offensichtlich (bzw. stumpfes Copy&Paste) ist, wie soll ein Lehrer die Einhaltung von Verboten effektiv kontrollieren?
 
  • Gefällt mir
Reaktionen: Laphonso
Sly123 schrieb:
Das beweist doch, dass AI aktuell nur Informationen zusammenfasst/selektiert.
Sehe da keinen 'Fehverhalten'.
Nur die Quellenangabe fehlt.
Dazu gibt es auch extrem viele verschiedene Modelle.
Lies dir den Artikel durch und erklär mir, wo ich temporär geschrieben habe, eventuell habe ich es über die Zeit vergessen.
Und wenn die KI darauf beharrt, aus einer Beschreibung der Techniken temporär zu schließen, bin ich schon vorsichtiger.
Und wenn diese KI behauptet, es gibt mehrere Quellen, auf die sie sich bezieht, kann diese aber nicht benennen, sollte man noch vorsichtiger werden.
 
  • Gefällt mir
Reaktionen: Brrr und Tor Tesla
KI ist halt dämlich.
Selbst erfundene Zitate, Falschinformationen und immer das gleiche Gelaber sind grundlegende Elemente dieser niemals korrekten Technik.
Der Ansatz ist schließlich grundlegend falsch, wenn man einfach alle Internetinhalte und vor allem Nutzerdatenquatsch als Grundlage nimmt.
Es ist so faktisch unmöglich, weil ja Müll "gelehrt" wird und von einer voreingenommenen Person wie z.B. Musk Parameter für das "Verhalten" vorgegeben werden.
Man kann diesen generierten Inhalten niemals vertrauen können, man muss alles selber gegenprüfen und wissen, ob das die Wahrheit sein kann oder ist.
Was man da manchmal vor die Füße geworfen bekommt, da schüttelt man nur mit dem Kopf.
Noch schlimmer ist, dass Leute tatsächlich behaupten, es selbst erstellt zu haben.
Diese Woche noch einen Fall erlebt, wo man einen "hochrangigen Fachmann" aus der Industrieszene komplett zerlegt hat und als totalen Dummschwätzer entlarvt hat.
 
Butterhützchen schrieb:
Anscheinend hat die Möhre doch was "gelernt".
Und das probierst du nochmal in 4 Wochen.
Denn das hatte ich auch schon als Antwort:
Der Name „T-Buffer“ von 3dfx stammt tatsächlich von Gary Tarolli, dem damaligen Chief Technical Officer (CTO) und Mitbegründer von 3dfx. Mehrere Quellen bestätigen, dass das „T“ im Namen eine Hommage an Tarolli ist, der maßgeblich an der Entwicklung dieser Technologie beteiligt war 1 2.

Ansonsten ist das bei mir die aktuelle Antwort, ohne(!) weiteres Nachfragen:
Screenshot 2025-09-09 100128.png


Quelle: u.a. der Artikel von @SVΞN
und mir
 
  • Gefällt mir
Reaktionen: fram, Butterhützchen und SVΞN
Ich habe gestern nach der halbseitigen Gesichtslähmung von Haftor Bjornsson gegooglet - das war die AI Antwort - leider keinen Screenshot aber ich schwöre auf meine Hardware:

Übersicht mit KI
Hafþór Júlíus Björnsson erlitt im Jahr 2017 eine Gesichtslähmung (Bell-Lähmung), die er als Folge einer Komplikation während seiner Schwangerschaft vor 2003 diagnostiziert bekam und die ihn nie vollständig ausheilen ließ. Dieser Zustand beeinträchtigt seine rechte Gesichtshälfte, da er bleibende Nervenschäden davontrug.

Direkt danach nochmal probiert, da war nix mehr von Schwangerschaft zu lesen. Diese Systeme sind noch so weit weg davon, produktiv verwendet werden zu können, aber da man das jetzt forced, wird alles den Bach runtergehen. Weil dumme Antworten immer und immer mehr zum recherchieren und letztendlich zum Training neuer Modelle genutzt werden...
 
  • Gefällt mir
Reaktionen: fram, Brrr, MichaG und 2 andere
Michael-Menten schrieb:
Das ding ist AI-slop vom feinsten. Sogar der Titel ist eine AI-Halluzination (müsste eigentlich allgegenwärtiges Computing heißen)....
Laut Springer gab es sogar einen menschlichen Review prozess bevor das AI Zeug gedruckt wurde.... Peinlicher geht es nicht mehr wenn deine "Menschen" im "Review" nicht mal bemerken, dass der Buchtitel AI-slop ist.
Aber "Manufacturing" heißt doch im deutschen "Herstellung", Synonym für "Fertigung"

Verstehe deinen Wirbel um den Buchtitel gerade irgendwie nicht.
DE Fassung: https://link.springer.com/book/10.1007/978-3-031-52738-8
ENG Fassung: https://link.springer.com/book/10.1007/978-3-030-49150-5
 
Im hier verlinken Video wurde davon berichtet, dass jemand einen KI-Bildgenerator mit KI-generierten Bildern trainiert hat, mit den neu generierten Bildern dann wieder einen, usw. und zuletzt wurde nur noch rosa Rauschen generiert (als Beispiel dass KIs nicht kreativ sein können):

https://www.heinz-schmitz.org/hiz-nachrichtenleser/hiz538.html

Das Interview fand ich generell sehr interessant. Auch weil beschrieben wurde, wie KIs nicht nur Arbeitsplätze nehmen sondern auch neue schaffen: Sozusagen der Webstuhl unserer Zeit.
 
Michael-Menten schrieb:
Na ja, ich sage mal nichts über die Geschichtsredaktion von Welt.de - macht ein Kommentator einen Fehler, wird berichtigt, macht die Redaktion einen Fehler, wird er verteidigt.

Sorry für das OT, aber Springer ist für mich persönlich kein Gradmesser.
 
Sierra1505 schrieb:
Aber "Manufacturing" heißt doch im deutschen "Herstellung", Synonym für "Fertigung"
Es gibt keine andere Quelle die dieses Wort verwendet.

Falls das irgendwo auf der Hohensee vom Laster gefallen ist kannst mal durchblättern. Steht großteils Müll drin jedoch ist das eigentlich über Ubiquitous computing mit dem Anschein von additver Fertigung.
 
Boulettendieb schrieb:
erst im Bach zum stehen kam (liegend natürlich).
Beides gleichzeitig?

Kannst du mir mal eine Zeichnung anfertigen? Gerne in MS Paint, muss nur gescribbelt sein ;)
Ergänzung ()

andi_sco schrieb:
Frage an den Copilot:
Ich: "Woher hat der T-Buffer von 3dfx seinen Namen?"
KI: "Von temporär"
Ich: "Das ist Fehlerhaft"
KI: "Nein, laut diversen Quellen ist es die korrekte Antwort"
Ich: "Kannst du mir eine Quelle nennen?"
KI: "Ich kann gerade keine Quellen finden, aber hier ist ein Artikel über den T-Buffer und seine Technik"
Ich: "Da steht aber nirgends "temporär" sondern dass es nach einem der 3dfx-Gründer benannt ist"
KI: "Nein, es lässt sich ableiten, dass es temporär bedeutet"

Die ließ sich nicht überzeugen.
Fun Fact: der Artikel, auf den sie verwiesen hat, war von mir erstellt
Das ist schon traurig!
 
Zhenwu schrieb:
Was kann KI überhaupt?
KI ist z.B. super, um Muster in Datensätzen zu finden, nach denen man selber sonst sehr genau suchen müsste.

Ich hab eine datenschutzfreundliche, Lokale KI, der kann ich erklären, was das Problem ist und sie dann mit hunderttausenden Zeilen Error-Log füttern, wenn da ein Muster zu dem Fehler passt, spuckt sie mir Vorschläge aus. Das ist schon angenehm, weil man dann von da aus neue Anhaltspunkte hat. Bisher hab ich immer selber gesucht, dauert aber unter Umständen deutlich länger, bis man was findet.

KI kann u.A. (noch) nicht:
  • Kreativ neue Inhalte erschaffen
  • 100% Akkurate geschichtliche/Politische/Allgemeinbildende/fachspezifische Fakten wiedergeben - hier schleichen sich oft kleine Fehler ein.
 
  • Gefällt mir
Reaktionen: fram und Trent
Loretta schrieb:
Meinst du den Film? https://de.wikipedia.org/wiki/8_Mile_(Film)

Oder hast du mir einen Link?

https://www.imdb.com/de/title/tt9603208/
Ergänzung ()

SirSinclair schrieb:
Nur wenn die Masse so dumm ist sich auf die KI zu verlassen, wenn niemand sie benutzten würde hätte sie auch keinen Einfluß auf die Realität.

dann muss man langfristig komplett auf MS, Google, Apple & Co komplett verzichten.

Und da unterstelle ich den Menschen nicht die Dummheit, sondern mehr Bequemlichkeit. Und das kann ich niemandem als negative Eigenschaft unterstellen, denn nur die wenigsten haben Zeit oder Interesse sich mit adäquaten Alternativen zu beschäftigen. Und wenn man nicht das Know How dazu hat, dann entsprechend unterscheiden zu können, wo KI eingesetzt wird und wo nicht, dann tritt eh ein Level von Gleichgültigkeit ein: "ich kann es eh nicht ändern, bzw. die anderen sind nicht besser"
 
Zuletzt bearbeitet:
Achtung whataboutism! Ob KI nun KI als Quelle angibt oder sich selbst zitiert, ist im Grunde dasselbe, was viele Medien bereits seit Jahrzehnten tun. Auch dort wird oft nur auf „allgemein Bekanntes“ oder „wie berichtet“ verwiesen – und das häufig ohne seriöse Primärquellen zu nennen, sondern lediglich auf eigene Artikel zu verlinken. Also nichts Neues, sondern nur altbekannte Praktiken in neuem Gewand.

Robo32 schrieb:
Kennt noch einer den Film "Idiocracy"? - die Zukunft gefällt mir immer besser^^
Keine Ahnung ob es schon jemand geschrieben hat, aber in der Zukunft steckt, was Pflanzen schmeckt! Und sie enthält Elektrolyte! 🤣
 
Zurück
Oben