KI als Hüter von Fakten? Kann KI eine Diskussion moderieren?

Meta.Morph schrieb:
Fakten und der wissenschaftlichen Basis orientieren
Ein Grundproblem ist, das Umgangssprache ja sehr unscharf ist (und damit auch viel Interpretationsspielraum lässt). Nicht umsonst verwendet man ja im wissenschaftlichen Bereich eine sehr klare Sprache mit wohldefinierten Begriffen.

Insofern ist Fakten und Unwahrheiten auch nicht immer so klar zu erkennen. Das ist ja oftmals schon für Menschen schwierig. Für ein LLM was nicht mal eine konkrete Vorstellung der Bedeutung der Wörter hat und ja letztlich nichts anderes macht als eine statistische Auswertung, ist es noch mal ungleich schwieriger.

Das hat auch schon jeder bemerkt, der schon mal ein bisschen mit LLMs gearbeitet hat.

Allenfalls taugt es also als unterstützendes Tool was eben den menschlichen Moderator auf mögliche Probleme hinweist. Und dann ist das auch die Frage: Unterstützt das wirklich oder macht es letztlich aufgrund von False-Postives sogar mehr Arbeit.

Insbesondere, weil das ja ein dynamischer Prozess ist. Es wird ja nicht so bleiben, wie es jetzt ist. Die Forenteilnehmer reagieren ja auch entsprechend darauf und es gibt immer ein paar Spaßvögel, die sich einen Jux daraus machen das LLM auszutricksen oder zu provozieren.
 
  • Gefällt mir
Reaktionen: Meta.Morph
K1LL3RC0W schrieb:
Die "Wissenschaft" redet von unsäglichen Schäden bis zur Vernichtung der Welt, wenn der Gehalt weiter ansteigt. Aktuell bei ca. 400 Teilchen auf 1 Millionen. Im Jura war der Gehalt aber bei ca. 1500 Teilchen auf 1 Mio., also mehr als dreimal so hoch. Ergebnis: ungeahnter Pflanzenwuchs und Entwicklung, massiver Anstieg an Flora und Fauna... ein blühender Planet.
Das ist leider ziemlicher Unfug...

Die "Wissenschaft" produziert Modellrechnungen und interpretiert diese. Keine davon sagt eine "Vernichtung" der Welt hervor. Im Gegenteil, man ist sich ziemlich einig, dass das Leben auf der Erde weiterhin existieren wird.
Einen blühenden Planeten kann es sogar bei 6000ppm CO2 in der Atmosphäre geben, das ist keine Frage. Es ist nur äußerst fraglich, ob es dann auch Lebensräume gibt, die sich für den Menschen eignen. Eigentlich ist das nicht sehr fraglich, weil es keine plausiblen Modellrechnungen gibt, die diesen Schluss zulassen.
Schau dir mal die Temperatur der Erde im Jura, vor über 150 Millionen Jahren, im Vergleich zu den letzten 10.000 Jahren an, seit es den modernen Menschen gibt. Die Erde war damals eine andere und mit Sicherheit für den modernen Menschen unbewohnbar, weshalb dein Vergleich einfach absolut dämlich ist.
 
  • Gefällt mir
Reaktionen: BlaBlam, KitKat::new() und tomgit
Anmerkung zu "wissenschaftlicher Konsens": Wissenschaft ist keine Demokratie. Dass heißt, nur weil die meisten etwas für richtig halten, ist es nicht zwingend richtig. Beispiel: bis ins weit ins 19. Jahrhundert, war es "wissenschaftlicher Konsens", dass Frauen ein weniger leistungsfähiges Gehirn haben, was Stand heute nicht korrekt ist. Dazu außerdem: Wissenschaft ist nie endgültig. Es werden Thesen aufgestellt, widerlegt, oder bestätigt... aber mit der Zeit auch immer wieder in Frage gestellt. Wissenschaft bedeutet nichts endgültiges!

Ansonsten stimme ich inhaltlich zu. Gerade "Klima" belegt das super. Auch der CO2-Gehalt in der Luft zum Beispiel. Die "Wissenschaft" redet von unsäglichen Schäden bis zur Vernichtung der Welt, wenn der Gehalt weiter ansteigt. Aktuell bei ca. 400 Teilchen auf 1 Millionen. Im Jura war der Gehalt aber bei ca. 1500 Teilchen auf 1 Mio., also mehr als dreimal so hoch. Ergebnis: ungeahnter Pflanzenwuchs und Entwicklung, massiver Anstieg an Flora und Fauna... ein blühender Planet.

Du, da bin ich voll und ganz bei dir. Wissenschaft ist nicht demokratisch. Nur Evidenz zählt.
Ein sehr gutes Beispiel ist das Buch „Hundert Autoren gegen Einstein“.. Man versuchte, die Relativitätstheorie mit einem demokratischen Maßstab zu widerlegen. Einstein behielt recht, „Warum hundert? Wenn ich Unrecht hätte, würde ein einziger reichen.“

Traurigerweise wird Wissenschaft heute medial oft genau gegenteilig geframt und auffällig häufig ausschließlich in die profitable Richtung 😉 siehe CO2

Jedenfalls arbeitet KI primär nicht wissenschaftsbasiert, sondern konsens- und musterorientiert und eignet sich daher weder als Faktenchecker noch als neutraler Moderator.
 
  • Gefällt mir
Reaktionen: SirSinclair und K1LL3RC0W
Web-Schecki schrieb:
Das ist leider ziemlicher Unfug...

Die "Wissenschaft" produziert Modellrechnungen und interpretiert diese. Keine davon sagt eine "Vernichtung" der Welt hervor. Im Gegenteil, man ist sich ziemlich einig, dass das Leben auf der Erde weiterhin existieren wird.
Einen blühenden Planeten kann es sogar bei 6000ppm CO2 in der Atmosphäre geben, das ist keine Frage. Es ist nur äußerst fraglich, ob es dann auch Lebensräume gibt, die sich für den Menschen eignen. Eigentlich ist das nicht sehr fraglich, weil es keine plausiblen Modellrechnungen gibt, die diesen Schluss zulassen.
Schau dir mal die Temperatur der Erde im Jura, vor über 150 Millionen Jahren, im Vergleich zu den letzten 10.000 Jahren an, seit es den modernen Menschen gibt. Die Erde war damals eine andere und mit Sicherheit für den modernen Menschen unbewohnbar, weshalb dein Vergleich einfach absolut dämlich ist.
Das mit der Vernichtung meinte ich anders. Aus diesem Grund habe ich da das Wort Wissenschaft in Gänsefüßchen gesetzt. Weil Medien gern behaupten, dass die Wissenschaft, genau das aussagt. Genauso halt das CO2 ab einer gewissen Menge, "tödlich für den Planten wäre". Ich wollte damit nur sehr vereinfacht sagen, dass die Aussagen "die Wissenschaft sagt..." niemals endgültig sind und dass man sich daher nicht auf jetzige "Aussagen" festlegen kann und diese als gesichert darstellen kann.
 
K1LL3RC0W schrieb:
Ich wollte damit nur sehr vereinfacht sagen, dass die Aussagen "die Wissenschaft sagt..." niemals endgültig sind und dass man sich daher nicht auf jetzige "Aussagen" festlegen kann und diese als gesichert darstellen kann.

Korrekt, die jetzigen Aussagen geben, dass bestmögliche Verständnis jetzigen Zeitpunkt wieder. Das bedeutet
a) durch neue Erkenntnisse kann sich der Stand der Wissenschaft ändern
b) das aber heute, der Stand der Wissenschaft so und so ist und man selbst, welcher in der Regel Null-Ahnung hat von diversen Thematiken, es schlicht nicht besser wissen kann.

Das erstaunliche ist aber, dass sehr viele meinen es besser zu wissen und sich dann auf Quellen berufen (falls überhaupt), welche nicht dem Stand der Wissenschaft entsprechen. Häufig Quellen, welche auch nicht den wissenschaftlichen Methoden und Sorgfaltspflichten Genüge tun.
 
  • Gefällt mir
Reaktionen: K1LL3RC0W und KitKat::new()
@Franky4Finger's
@K1LL3RC0W

Danke, dass ihr direkt einen Beweis für eine Faktenfreie Diskussion liefert.

Ihr Ignoriert vollständig, das Systeme eine Entwicklungen über tausende von Jahren durchlaufen haben und dass sich diese keinesfalls so schnell anpassen können.
Die Klimatischen Veränderungen von heute, sind noch am ehesten mit dem Ausbrechen des Sibirischen Trapps vergleichbar. Das hatte ein Massensterben zur Folge.
 
Zuletzt bearbeitet:
wie würde man Themen des Glaubens z.B. Theologie moderieren? Oder Themen der Philosophie und Emotionen?
Wie würde man eine Diskussion zum Thema "Woke" moderieren?!

Ich glaube zum Moderieren braucht man weniger Faktenkenntnis als vielmehr Menschenkenntnis (weiß ich aus eigener leidvoller Erfahrung)

Eine AI würde beim Moderieren helfen wenn sichergestellt werden könnte, das alle Diskussionsteilnehmer nur an Erkenntnisgewinn interessiert werden - alle wollen das neue Wissen was sie erlangen maximieren. Leider wollen das oft nur wenige. Manche wollen:
  • das Wissen der anderen steigern (ihr eigenes wird als hinreichend empfunden)
  • sich bestätigt fühlen
  • provozieren - allein das kann manchmal konstruktiv wirken
  • wissen eigentlich nicht was sie wollen - aber eventuell ändert die Diskussion etwas daran
  • ....
 
Zuletzt bearbeitet:
dermoritz schrieb:
Ich glaube zum Moderieren braucht man weniger Faktenkenntnis als vielmehr Menschenkenntnis
Würde ich auch so sehen. Menschenkenntnis, Feingefühl und Gespür für die Situation und wie es sich entwickelt, Erfahrungswerte der Vergangenheit.
 
Meta.Morph schrieb:
@Franky4Finger's
@K1LL3RC0W

Danke, dass ihr direkt einen Beweis für eine Faktenfreie Diskussion liefert.

Ihr Ignoriert vollständig, das Systeme eine Entwicklungen über tausende von Jahren durchlaufen haben und dass sich diese keinesfalls so schnell anpassen können.
Die Klimatischen Veränderungen von heute, sind noch am ehesten mit dem Ausbrechen des Sibirischen Trapps vergleichbar. Das hatte ein Massensterben zur Folge.
Wissenschaftlich betrachtet ist es nicht die Menge der Meinungen oder die Schlagkraft rhetorischer Formulierungen, die eine These belegt. Nur direkt falsifizierbare Hypothesen gelten als empirisch abgesichert. Modellberechnungen sind nicht falsifizierte Thesen, mehr nicht. Wer also eine Diskussion als "faktenfrei" bezeichnet, ohne den methodischen Maßstab der Falsifizierbarkeit zu berücksichtigen, verkennt die Grundprinzipien wissenschaftlicher Argumentation und gleitet in die Moral ab.
 
  • Gefällt mir
Reaktionen: SirSinclair
Ayo34 schrieb:
Halluzinationen: Was passiert wenn das Model eine wissenschaftliche Meinung herbei halluziniert?
Halluzinationen treten ja meistens dann auf, wenn die KI keine entsprechenden Fakten hat, aber das Modell darauf getrimmt ist trotzdem zu antworten.

Also überall da wo Alexa aktuell ehrlich antwortet "tut mir leid, das weiß ich leider nicht" wird die Alexa+ (überspitzt formuliert) einfach irgendeinen Mist hinknallen, der hoffentlich passt.

Wenn du das LLM dahingehend trainierst, dass sie das NICHT tun soll, sieht die Sache anders aus. Ich trainiere aktuell ein gpt-4.1 Modell auf eine spezielle Datenbank, das ist ziemlicher Aufwand, aber funktioniert richtig gut.
 
  • Gefällt mir
Reaktionen: Meta.Morph
Franky4Finger's schrieb:
Modellberechnungen sind nicht falsifizierte Thesen, mehr nicht.
Das ist falsch.
1. Modellberechnungen sind mehr als nur Thesen. Beispielsweise steht eine Berechnung dahinter, die auf Mechanismen basieren kann, die bereits hohe wissenschaftlich Evidenz besitzen.
2. Es gibt genügend Modellberechnungen, die in der Vergangenheit durchgeführt worden sind UND bereits entweder falisifiziert oder bestätigt wurden. Dazu gehören auch zahlreiche Modelle der Klimawissenschaft
 
  • Gefällt mir
Reaktionen: Meta.Morph und BlaBlam
h00bi schrieb:
Halluzinationen treten ja meistens dann auf, wenn die KI keine entsprechenden Fakten hat, aber das Modell darauf getrimmt ist trotzdem zu antworten.

Also überall da wo Alexa aktuell ehrlich antwortet "tut mir leid, das weiß ich leider nicht" wird die Alexa+ (überspitzt formuliert) einfach irgendeinen Mist hinknallen, der hoffentlich passt.

Wenn du das LLM dahingehend trainierst, dass sie das NICHT tun soll, sieht die Sache anders aus. Ich trainiere aktuell ein gpt-4.1 Modell auf eine spezielle Datenbank, das ist ziemlicher Aufwand, aber funktioniert richtig gut.

Wäre das Problem so einfach aus der Welt zu schaffen, hätten die ganzen großen Anbieter es doch schon längst gemacht?

Das "Wenn du das LLM dahingehend trainierst, dass sie das NICHT tun soll" scheitert an der Sache, dass das LLM gar nicht weiß, dass es halluziniert. Sonst könnte man ja einfach sagen "halluziniere nicht" und wir wären 3 Schritte weiter.
 
  • Gefällt mir
Reaktionen: Meta.Morph
Nitschi66 schrieb:
... Heiligabend ...
12. Mai ist zwar in jedem Falle falsch, aber die Antwort ist jetzt auch nicht eindeutig im Sinne von "es gibt ein Datum".
 
Zuletzt bearbeitet:
@h00bi
@Ayo34
Man darf halt nicht daher gehen, und ein LLM mit den Erzeugnissen füttern, die von X kommen.

Deshalb wäre es so wichtig, ein eigenes LLM zu bauen mit Europäischen Werten und Standards. Wobei ein Standard vielleicht doch gebrochen werden müsste - das Urheberrecht?! Bitte lest doch die kuratierte Bibliothek ein bevor ihr auf X zurückgreift....
Aber gut vielleicht stell ich mir das gerade zu einfach vor...
 
Meta.Morph schrieb:
Aber gut vielleicht stell ich mir das gerade zu einfach vor...

Elon Musk hat ja auch eine (seine) Wahrheit mit der Grokipedia herausgebracht. Das kann natürlich jeder auch selbst machen. Am Ende müssen an das Modell/ an die Sichtweise nur genug glauben und es ähnlich sehen. Dann hat man eine Grundlage.

Bei Diskussionen hat man aber häufig genau sehr gegensätzliche, grundverschiedene Meinungen. Würde Musk sich etwas von einer ChatGPT-Moderation sagen lassen? Würde sich ein normaler Mensch etwas von einer Grok-Moderation sagen lassen?
 
Meta.Morph schrieb:
Deshalb wäre es so wichtig, ein eigenes LLM zu bauen mit Europäischen Werten und Standards.
Mistral?
Ergänzung ()

Ayo34 schrieb:
scheitert an der Sache, dass das LLM gar nicht weiß, dass es halluziniert. Sonst könnte man ja einfach sagen "halluziniere nicht" und wir wären 3 Schritte weiter.
Korrekt, das LLM weiß gar nicht, dass es halluziniert bis du ihm sagst dass es das tut.
Du musst dem LLM von Anfang an den Zwang nehmen, alles beantworten zu wollen. Das ist aber nicht erwünscht, da das LLM sonst als "schlecht" angesehen wird, wenn es bei etwas sagt "das kann ich nicht".
Die LLM Entwickler wollen doch, dass du jeden Dreck in ihr LLM reinwirfst, um mehr Trainingsdaten bekommen.

Im Fall einer einzelnen Datenbank als Datenquelle ist das aber recht simpel. Du promptest einfach, dass das LLM nachfragen soll, wenn es etwas nicht weiß. Daher weißt du auch, wo du weiter trainieren musst.*

Aber das ist bei einem chatbot, der möglichst alle Themen umfassen soll, eben nicht möglich. Wenn du wissen willst welcher Steuersatz für dein Einkommen gilt, dann macht es keinen Sinn dass das LLM dich um eine Tabelle bittet, wo es die Steuerprogression ableiten kann. Hättest du diese Tabelle, würdest du die Frage nicht stellen.

Du kannst bei public free und public paid LLMs die Vektordatenbank nicht beeinflussen. Du musst das fressen, was der Anbieter da rein packt.
Bei einem Enterprise LLM kannst du das aber. Das LLM kann in allen beiden Fällen identisch sein, du wirst aber beim Enterprise LLM stark unterschiedliche Antworten bekommen, die extrem von den Vektordaten abhängen, die du dem Enterprise LLM zur Verfügung stellst.

*Wenn ich wissen will, in welchen Artikel ein Verkaufspreis in tschechischen Kronen hinterlegt ist, versucht dass LLM von alleine herauszufinden, wo der Preis in tschechischen Kronen hinterlegt sein könnte. Wenn ich ihm aber prompte: Frag nach, wenn du nicht weißt wo der wo der Preis in tschechischen Kronen hinterlegt ist, checkt das LLM die Vektordatenbank und findet keinen derartigen Hinweis, also fragt es nach.
Wenn du die Vektordatenbank aber mit allem möglichen Stuss füllst und das LLM auch noch im Netz suchen lässt, dann kommt am Ende halt Murks raus.
 
Zuletzt bearbeitet:
Ayo34 schrieb:
Bei Diskussionen hat man aber häufig genau sehr gegensätzliche, grundverschiedene Meinungen. Würde Musk sich etwas von einer ChatGPT-Moderation sagen lassen? Würde sich ein normaler Mensch etwas von einer Grok-Moderation sagen lassen?
Es soll darum gehen, Schwurbler vom Öffentlichen Diskurs auszuschließen. Das können die am Stammtisch machen.

Vielleicht wäre ein einfaches Down- und Upvoten besser? Natürlich müsste man Beiträge anonymisieren. Die Beiträge sollen zählen und nicht die "Reputation".
 
KitKat::new() schrieb:
Das ist falsch.
1. Modellberechnungen sind mehr als nur Thesen. Beispielsweise steht eine Berechnung dahinter, die auf Mechanismen basieren kann, die bereits hohe wissenschaftlich Evidenz besitzen.
2. Es gibt genügend Modellberechnungen, die in der Vergangenheit durchgeführt worden sind UND bereits entweder falisifiziert oder bestätigt wurden. Dazu gehören auch zahlreiche Modelle der Klimawissenschaft
Modellberechnungen sind Thesen, nicht mehr und nicht weniger, egal was die Grundlage ist. Es gibt nur Evidenz oder Falsifizierung. Dazwischen steht die These. In der Wissenschaft ist nichts "bestätigt", sondern gilt solange als Annahme, bis es falsifiziert wurde. Alles andere ist Glauben und der gehört in die Kirche.
 
  • Gefällt mir
Reaktionen: SirSinclair
Meta.Morph schrieb:
Sehr Based würd ich sagen 😁
und ich würde sagen, sehr biased...
schon allein der Begriff "wissenschaftlicher Konsens" impliziert nämlich das es unbewiesene Theorien sind, sonst wäre ein Konsens gar nicht nötig.
In der Wissenschaft ist Mehrheitsmeinung irrelevant, was zählt sind einzig Beweise.
Ergänzung ()

Meta.Morph schrieb:
Es soll darum gehen, Schwurbler vom Öffentlichen Diskurs auszuschließen.
Das ist anti-demokratisch, schon allein weil die Definition von "Schwurbler" subjektiv ist.
Aus meiner Sicht bist du z.B. ein Schwurbler mit dem was du hier in dieser Diskussion schreibst.
 
  • Gefällt mir
Reaktionen: Franky4Finger's
Meta.Morph schrieb:
Es soll darum gehen, Schwurbler vom Öffentlichen Diskurs auszuschließen.
Ich kann noch nicht einmal aufzählen, auf wie vielen Ebenen das eine „schlechte“ Idee ist.

Und das "schlechte" in Anführungszeichen nicht als Zeichen der Zustimmung, sondern des kompletten Gegenteiles. Ich mag mir nur keine Verwarnung einheimsen.

Weil das Einzige, was man damit bewirken würde, ist diesen Leuten einen Nährboden zu verschaffen. Weil man damit a.) deren Meinung unterdrückt, auch wenn die Meinung ggf. Quark ist, und man b.) sie in eine Opferrolle packt - exakt das, was sie immer haben wollen. "Das wird man doch noch sagen dürfen!" ist kein Aufschrei aus einer Machtposition, sondern suggeriert eine Opferposition - die Meinung würde unterdrückt werden, man dürfe nicht mehr die eigene Haltung vertreten, und sicherlich ist man damit ja nicht alleine.

Wenn man gegen Anti-Intellektualismus vorgehen möchte, geht das nur via Partizipation, nicht durch Exklusion
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Franky4Finger's und SirSinclair
Zurück
Oben