News Google AI Overviews: Wenn sich die KI auf KI als Quelle beruft

Rotznase6270 schrieb:
Die Antworten werden viel zu oft kritiklos übernommen.
Das ist eher eine allgemeine 'Digitalseuche'. ALLES im Netz, Influencer, Artikel von irgendwo, bis hin zu 'lifehacks' (polieren Sie ihren Smartphone-Screen mit Zahnpasta), werden kritiklos übernommen, bzw. zu gedankenlos. Die KI hatte beste Wegbereiter.
 
  • Gefällt mir
Reaktionen: Azeron und mynameisrudii
Ich finde, dass der KI langsam mal Widerstand entgegen gebracht werden sollte. Finde die Geschichte zum Teil schon gefährlich.

Ich kenne Menschen die mittlerweile alle 2 Minuten mit ChatGPT reden, weil sie sonst nicht mehr klar kommen. Menschen, die ihre Uni-Hausarbeiten per KI generieren lassen. Menschen, die sich auf fehlerhafte Aussagen (z.B. Motorölvolumen bei Autos) stützen und dadurch unter Umständen Schäden verursachen. Menschen, die zum Teil den Unterschied zwischen echten und KI-generierten Bildern oder Videos nicht erkennen können.

Ich werde mittlerweile komisch angeguckt, weil ich lieber selbstständig auf die Suche gehe, statt blind irgendeiner Bot-Aussage zu vertrauen. Einfach gruselig.
 
  • Gefällt mir
Reaktionen: blende11, DeusExMachina, MichaG und 5 andere
KI ist rechnerisches Mittel- bis Untermaß!
"Der syrische Dr. Google in der Klapsmühle in Sachsen-Anhalt!"
Ein errechneter Querschnitt aller zu findenden Ideen - auch der dümmsten.
Bei der Bildbearbeitung ist das egal, aber bei der Informationsverarbeitung nicht.
 
  • Gefällt mir
Reaktionen: Laphonso und Azeron
angbor47 schrieb:
Ich hab lange angenommen, dass na sdorowje die russische Entsprechung für "Prost" sein soll. Jetzt hab ich erfahren, dass das anscheinend gar nicht stimmt*.
Das Problem sind nicht die falschen Informationen, sondern die fehlende Korrektur. Bei Google konnte man immer durch längere Recherchen eine Quelle finden, die etwas bestätigt oder korrigiert hat. Außerdem waren die Informationen aktuell. Besser war es, wenn man in analogen oder von Google nicht erreichbaren Quellen sich versichert hat. Versuch dir bspw mal zum §218 StGb eine Meinung mithilfe von KI zu machen. Das ist quasi unmöglich ohne die Quellen der KI selbst zu lesen. Wenn die KI jetzt aber anfängt, von sich selbst abzuschreiben, kann das in einer so empfindlichen Debatte wie dieser schnell dazu führen, dass wichtige Informationen verloren gehen und am Ende ein total einseitiges Bild entsteht.
 
  • Gefällt mir
Reaktionen: Spock37
mynameisrudii schrieb:
Ich finde, dass der KI langsam mal Widerstand entgegen gebracht werden sollte.
Nein! KI ist ein Geschäft, das heißt, man muss deren immer dauerhaftere Nutzung bezahlen. Wenn KI nicht hält, was sie verspricht, kauft niemand die Gigabyte.
Für Bild- und Videobearbeitung ist sie top!
 
  • Gefällt mir
Reaktionen: Tor Tesla
Boulettendieb schrieb:
Das erinnert mich an einen Kumpel, der zum Männertag völlig steif an einer Böschung stand, in die Brennesseln gepinkelt hat, das Gleichgewicht verlor, in die Brennesseln und Pisse gefallen ist, die Böschung runterkullerte, und erst im Bach zum stehen kam (liegend natürlich).
Ein unvergesslicher Tag, stimmt's?
Ergänzung ()

wern001 schrieb:
Eigentlich müssten die Hersteller für jede Falschantwort ordentlich zur Kasse gebeten werden
Zumal ja alle auf das Urhebrrecht gepfiffen haben. Was die Idiotie noch größer macht.
 
Rote Rose schrieb:
Heute nennt man es „KI“, aber in Wahrheit ist’s nur Spielerei, die keiner braucht.
Wenn du es nur als Spielerei siehst, dann wird es auch nur eine Spielerei bleiben.

Ich hatte letzten den Case, in dem ich ~200 Buch-Genre-Tags konsolidieren und in eine Fremdsprache übersetzen wollte - alles uneinheitlich, teils doppelt, teils unterschiedliche Abkürzungen, etc.
Manuell hätte das mindestens eine halbe Stunde gedauert, mit der KI war ich in ein paar Minuten fertig, und das zeitaufwendigste war am Ende nochmal drüber zu schauen.

Von den klassischen Programmier-Usecases, die bei der Arbeit reale Zeit und Geld einsparen, brauch ich da gar nicht anfangen.

H3rby schrieb:
Macht das nicht einfach jeder und nicht nur die Masse?
Aber sind jeder/alle nicht automatisch die Masse? :lol:

anexX schrieb:
Dann hat sie nochmal die KI gefragt was man tun müsste um den Hund Dante bei Diablo IV zu erhalten - Antwort der KI: Es gibt in Diablo IV keinen Hund namens Dante. :freaky:
War das nicht vielleicht einfach ein alter Wissensstand?

Boulettendieb schrieb:
Je größer die Menge, umso geringer der IQ..
Ein Mensch allein ist intelligent,
Gruppe A: Mensch 1 (IQ70)
Gruppe B: Mensch 1 (IQ70) + Mensch 2 (IQ120)

Bist du dir da sicher, dass Gruppe A intelligenter ist als Gruppe B? :P

Robert. schrieb:
Im Besitz der reichsten Menschen der Welt ... was wird da wohl schiefgehen.
Naja, der OpenSource-Strang ist lebendig wie eh und je, und kostenpflichtige Konkurrenz gibt es auch (noch) genug.

angbor47 schrieb:
Ich hab lange angenommen, dass na sdorowje die russische Entsprechung für "Prost" sein soll. Jetzt hab ich erfahren, dass das anscheinend gar nicht stimmt*. Da hat keine KI etwas Falsches weiter und weiter gegeben, sondern u. a. Filme. Das ist also nichts Neues.
Ach, die falsche Info hättest du auch von nem Russen bekommen können, der keine Lust auf Erklärungen hatte; Es ist zwar nicht wirklich richtig, aber auch nicht so super falsch, dass es einen nennenswerten Unterschied macht. :D
 
Boulettendieb schrieb:
@H3rby
Je größer die Menge, umso geringer der IQ..
Ein Mensch allein ist intelligent, das ist aber egal, wenn die "Herde" halt in die falsche Richtung läuft, gegen solche Trends kannst nix machen, genauso wie es ungeschriebenes Gesetz ist, dass es Krieg geben wird, die Frage ist nur, wann, wo und wieviele...

Ich weiß zwar was du meist, aber deine Beschreibung stimmt so nicht. Die Gruppeneffekte haben ja nichts mit dem IQ zu tun, sondern dass das rationale Handeln durch Emotionalität ersetzt wird. Oer würdest du jetzt sagen, dass, wenn einer was Gutes macht, jeder einzelne dümmer wird, wenn 5 was Gutes tun?

Und ein Mensch, der in die falsche Richtung läuft, reicht häufig voll und ganz aus, auch wenn sich genügend entgegenstellen.

Ansonsten ist der einzelne Mensch wohl nicht so intelligent wie du denkst, denn der ist es ja oftmals, der den "Krieg" etc. initialisiert.

Bright0001 schrieb:
Aber sind jeder/alle nicht automatisch die Masse? :lol:

Also für meinen Gebrauch impliziert Masse, dass es zwar eine große Menge, aber eben nicht alle sind. Somit würde ich das nicht gleich setzen.
 
H3rby schrieb:
Die Gruppeneffekte haben ja nichts mit dem IQ zu tun,
In gewisser Hinsicht schon, weil eine KI (noch? 🤔) nicht zwischen sinnvoll und quatsch unterscheiden kann, wenn ausreichend viele Quatsch schreiben.
 
Google hat jetzt zumindest einen Nutzer weniger. Wird hart, aber das geht mir alles zu weit. OOC
 
Marius schrieb:
@Sinatra81
In dem Fall Gemini
Ist aber sehr egal welche
Gemini liefert mir bessere antworten als das komplett woke Chat GPT, das schwurbelt nur rum.

Du bist augenscheinlich jemand mit einem gewissen Anspruch.
Ich habe einen Anspruch an Differenzierungen und eine fundierten Argumentation.
Würdest du mir den Gefallen tun und „bessere antworten als das komplett woke Chat GPT, das schwurbelt nur rum“ mal genauer erläutern? Was genau meinst du damit?
Was macht ChatGPT deiner Ansicht nach falsch und in welchen Bereichen z.B. „schwurbelt es nur rum“.
 
Anna R schrieb:
Wird zwar ohnehin gleich ins Aquarium wandern sowie mit Ban belegt werden, ist aber inhaltlich nicht falsch.
Ich tippe auf ein paar Tage Auszeit, hat er seine Entgleisung doch zumindest mit einer Quelle versehen. :D

Anna R schrieb:
weil eine KI (noch? 🤔) nicht zwischen sinnvoll und quatsch unterscheiden kann
Das kommt auf die Betrachtungsebene an: Wenn man "unterscheiden" im Kontext von "verstehen" nimmt, dann sind/bleiben LLMs grundsätzlich nicht dazu in der Lage, weil keinerlei Denkprozesse stattfinden - wenn man es nur als die Einteilung in Eimer A oder Eimer B sieht, dann können die das heute durchaus schon.
Es ist einer der größten Pluspunkte von Reasoning Modellen, also Modellen, die die Antwort in mehreren Stufen und Iterationen vorbereiten, dass sie sich selbst korrigieren und "zwischendurch" nach mehr Infos suchen können.

Das ist aber einerseits langsam, und andererseits teuer, daher wird Google da noch eine Weile drauf verzichten - und dann landet man beim Status Quo, in dem ein schnelles und vergleichsweise dummes Modell eigentlich nur Inhalte zusammenfasst ohne eine kritische Prüfung durchzuführen. Da können auch die saubersten Trainingsdaten nicht viel retten.

Wird sich mit der Zeit aber sicherlich deutlich verbessern, im weiten Kontext stehen wir beim AI-Thema immer noch ziemlich am Anfang, und es gibt praktisch alle drei Tage nennenswerte Durchbrüche.
 
  • Gefällt mir
Reaktionen: Anna R
Wer dachte Wissenschaftsverlage haben Ansprüche, immerhin sind die Bücher teuer, und AI-slop wäre dort kein Problem:
Nein.
Laut Sprigner ist das Buch " 3D-Druck und allgegenwärtige Fertigung" (ISBN 978-3-031-52737-1) kein Problem.

Das ding ist AI-slop vom feinsten. Sogar der Titel ist eine AI-Halluzination (müsste eigentlich allgegenwärtiges Computing heißen)....
Laut Springer gab es sogar einen menschlichen Review prozess bevor das AI Zeug gedruckt wurde.... Peinlicher geht es nicht mehr wenn deine "Menschen" im "Review" nicht mal bemerken, dass der Buchtitel AI-slop ist.

Tja. Anfang des Jahres hat Elsiver auch vegative electron microscope verteidigt bevor die eingeknickt sind. Vondaher dürfte das kein Springer exklusives Problem sein.


Wird noch extrem lustig werden mit dem ganzen AI-Schrott wenn selbst Fachliteratur Ramsch wird. Vielleicht ist das heutige ChatGPT dann sogar die beste Quelle da deutlich günstiger für den gleichen Abfall...
 
Anna R schrieb:
Wird zwar ohnehin gleich ins Aquarium wandern sowie mit Ban belegt werden, ist aber inhaltlich nicht falsch.
Woher willst du wissen, dass hier irgendetwas inhaltlich richtig sein soll?
1. Springer Presse aus dem Jahr 2007.
Alles was von dort kommt ist immer und ausschließlich als Lüge zu beurteilen. Nur persönliche Recherche könnte dies ändern.

2. Es ist eine Behauptung
Es gibt weder Beweise, noch Gegenbeweise. Was typisch Springer Presse ist. Es gibt keine Untersuchungen und Gerichtsurteile.

3. Sexueller Missbrauch in den eigenen Familien
Es gibt genügend Urteile in denen deutsche Väter ihre Tochter sexuell missbraucht haben. Auch wenn daraus nun kein Kind gezeugt wurde, ist es obendrein auch noch Inzest. Denn das Wort Inzest sollten mal einige nachlesen. Die sozial verkümmerte Springer Presse, also auch Welt, schreibt von Inzest. Denn es gibt einen Unterschied zu Inzucht.

Was für eine Schande hier im Forum unterwegs ist.
 
Zuletzt bearbeitet:
Drexel schrieb:
Man hätte das Netz freezen müssen als es noch rein menschliche Inhalte enthielt. :D

Wenn die den Schweinkramm Filter abschalten, dann ist der Großteil menschlicher Inhalt, nur sollen deren KIs eben kein Schweinkramm zeigen.

Als VHS für Schweinkramm in die Videothek kam, waren die anderen Formate instant tot. Mein Vater konnte sich nicht entscheiden beim Kauf, zwischenzeitlich viel die Wahl der wahren Internet Macher auf VHS und beim nächsten Besuch im Laden, hatte der nur noch VHS Recorder rumstehen...
 
Gravlens schrieb:
Ich verstehe das Problem nicht, man kann die KI-Antwort doch auch einfach ignorieren und zu Suchergebnissen runter scrollen?

Und wenn ich die Google-KI nutze dann sehe ich mir grundsätzlich auch die Quellen an, die sind zugegebenermaßen öfter nicht wirklich gut, zum Teil auch aus Werbetexten.

Aber wie gesagt man kann es auch schlicht ignorieren.^^
Das machst du und einige andere mit Hirn auch aber der Großteil der Internetuser ist nunmal dumm und verlassen sich schlicht auf die KI Antwort. Warum sollten sie weiter recherchieren oder Quellen prüfen wenn sie der Meinung sind dass die KI immer recht hat?
 
  • Gefällt mir
Reaktionen: malvan und Brrr
Ich nutze Brave Search mit KI Summary. Ist besser als Google
 
Zurück
Oben