News xAI Grok: Der politisch inkorrekte Chatbot kommt direkt an die Leine

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
MacFu schrieb:
Aber ein intelligentes System ist weit weg von Menschlichkeit. Es kann nur die widersprüchlichen (politische Narrative) und lückenhaften Daten ("Primärbeweise") auswerten, die ihm vorliegen. Jede Antwort gleicht daher eher einer Studie und hier wären ja vollständigere Daten erforderlich, die in diesem historischen Kontext nicht existieren. Im Grunde hat damit Grok "klarer" geantwortet, die anderen GPTs schweifen bei solchen Themen aus und geben entweder keine zufriedenstellende Antwort oder umschreiben die selbe Aussage in einem möglichst nicht-triggernden Text.
Der Holocaust ist das am besten dokumentierte geschichtliche Ereignis überhaupt. Die Täter haben ihre eigenen Opfer fein säuberlich dokumentiert.
Fragt man Grok nun zu deutlich schlechter dokumentierten Ereignissen gibt er komischerweise ganz andere Antworten. Wem das nicht zu denken gibt dem ist nicht mehr zu helfen.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Strubbel99, Veitograf und 9 andere
panopticum schrieb:
Die Wahrheit wird aufgrund politischer Korrektheit doch oft nicht mehr ausgesprochen
Was bitte ist denn "die Wahrheit"?
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Myki, qappVI und 8 andere
Alle Systeme sind manipuliert. Weil die Quelle ja schon keine absolute Wahrheit ist. Man trainiert auf Daten. Aber was für Daten sind das denn überhaupt? Kann irgendwer von sich behaupten UND ES BEWEISEN dass er die allumfängliche Wahrheit kennt? Auf dieser müsste man eine perfekte neutrale und korrekte AI nämlich trainieren. Dann fehlt aber weiterhin die Moral. Was wäre wenn eine AI zum Schluss käme dass Diebstahl dann doch ganz toll ist?

Da es diese Daten nicht allgemein über alle Themenbereiche hinweg gibt wird eine AI immer darauf anfällig sein statistisch etwas als wahrscheinlich anzunehmen was aber aufgrund ihrer ursprünglichen Quelle schon völliger Quatsch, Polemik oder Propaganda ist.

Obendrauf wird dann die eigene AI noch mit einem Vorab prompt "erzogen" oder aber man beeinflusst bewusst das Material auf das trainiert wird in eine Richtung. So war ChatGPT am Anfang noch ziemlich stark linksidealistisch, das hat sich verändert. Jetzt ist es extrem Pro User eingestellt dass meist nur versucht einen den Honig um den Mund zu schreiben außer man schreibt völligen Quatsch oder aber macht einen allgemeinen Prompt über alle Chats hinweg dass der Bot sich gefälligst auch mal traut Gegenargumente zu liefern als nur ein Ja Sager zu sein.

Aber das Kernproblem bleibt. Wer bestimmt denn jetzt was Wahr und Falsch ist, was gut und schlecht ist? Ich meine nicht die einfachen Fälle wo man ganz klare Wissenschaftliche Beweise und z.B. Mathematik hat. Ich rede von den Dingen die nicht einfach so beweisbar sind. Da haben wir nämlich den Salat. Die Statistik kann Wahrheit von Unwahrheit nämlich gar nicht unterscheiden. Wenn ich sie mit 80% der Daten Unwahrheit füttere und 20% der Daten mit Wahrheit, dann wird sie mir am Schluss ungefiltert mit Hoher Wahrscheinlichkeit die Unwahrheit ausspucken. Das ist eben nicht der große Heilsbringer. Leider.

Die allgemeine Wahrnehmung des Menschen ihrer eigenen Umgebung ist ja schon problematisch. Da kommt ja schon oft nicht das raus was wirklich passiert ist. Was für aussagen getätigt werden die dann durch Videomaterial völlig widerlegt werden können. Auch wenn man den Leuten vorher sagt dass es Videomaterial gibt ist deren Wahrnehmung oft mindestens verzerrt. Aber leider ist es inzwischen auch leichter denn je Videomaterial zu manipulieren um neue "Wahrheiten" zu erschaffen.

Da kommt noch eine lustige Zukunft auf uns zu. Das Informationszeitalter wird zum Desinformationszeitalter. Eine Welt voller individueller interessengetriebener Doppelmoral mit Unwahrheit als Basis. AI mittendrin ist nur das Kokain im System, nicht aber zwangsläufig das Grundproblem. Am Schluss werden wir das auch irgendwie überleben, aber ich bin mir sicher manche Staaten werden zu Autoritären Festungen mit geblendeten Idealisten.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: cbforum.scooter und dideldei
panopticum schrieb:
Die Wahrheit wird aufgrund politischer Korrektheit doch oft nicht mehr ausgesprochen.

Hast du ein Beispiel dafür, welche Wahrheit aufgrund politischer Korrektheit nicht ausgesprochen wird?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx, Stramma, qappVI und 9 andere
Conqi schrieb:
Ich finde diese Vorstellung immer verblüffend, es gäbe bei allem einen unpolitischen, neutralen Standpunkt. Als wäre nicht jedes etwas komplexere Thema in irgendeiner Form politisch aufgeladen.
Aber das muss doch nicht sein. Einfach die Bewertung vom Geschehen weglassen. Zumindest aus journalistischer Sicht oder halt bei einer KI. Und wenn du persönlich ein Geschehen bewertest, dann muss dir voll bewusst sein, es ist nur deine ganz persönliche Meinung. Es ist nicht allgemeingültig, andere müssen deine Sicht nicht teilen. Egal, wie sehr du dich im Recht siehst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese
Zugleich soll er „politisch inkorrekter“ agieren. Antworten zeigen: Der Grat zwischen Wahrheit und Lüge ist schmal.
Dieser Grat ist auch bei politisch korrektem nicht zwangsläufig breiter. Man siehe politisch korrekt in China, Türkei und Rusland beispielsweise an. Was korrekt bleibt zeigt in vielen Fällen erst die spätere Zeit.

Edit: als Wissenschaftler a.D. finde ich es immer bedenklich, wenn jemand meint so sehr recht zu haben, daß er andere Meinungen pauschal als falsch deklariert. Und das sage ich obwohl ich weder Impfgegner, Klimawandelleugner, Coronaleugner oder AfD-Wähler bin, im Gegenteil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cbforum.scooter, Rockstar85, Wintermute und 2 andere
Marcel55 schrieb:
Ich möchte keinen politisch inkorrekten und noch viel weniger einen politisch korrekten Chatbot sehen, das Ding soll einfach ungefärbt sein und gut ist.
Tiis schrieb:
Political Correctness ist die Seuche unserer Zeit. Jede KI sollte rein, nüchtern und objektiv sein ohne jeglichen politische Agenda.
panopticum schrieb:
Politische Korrektheit ist ein Maßstab der für normale Menschen vollkommen irrelevant ist.
Die Wahrheit wird aufgrund politischer Korrektheit doch oft nicht mehr ausgesprochen.

"Politische Korrektheit" aka. "Regeln des Anstandes". Das worüber sich normalerweise beschwert wird ist ja, dass sich die Regeln des Anstandes verschieben. Wo die alten Regeln des Anstandes vorsehen, dass fremde Personen gesiezt werden, verschiebt sich das schon länger hin zu einem "du", gerade bei Jenen mit Internetsozialisierung. Hingegen wird erwartet, dass gewisse Formen von Sexualisierung, Diskriminierung nicht mehr in Ordnung sind. Wobei viele dieser Regeln politisch soweit ausgehandelt wurden, dass sie gar in Gesetze geworden sind. Sodass Schmähung und Beleidigung gar recht weit vorn im Grundgesetz als inakzeptabel definiert sind.
So richtig ist mir unverständlich, wieso man fordert, dass Kommunikation unter Menschen und/oder Computersystemen ohne Anstandsregeln erfolgen soll. Ich habe zwar auch den Drang immer mal wieder Diskutanten als Hohlbirnen zu bezeichnen, aber das bringt keine Diskussion irgendwie weiter, wäre schlicht unanständig und wird dankenswerterweise sanktioniert.

RaptorTP schrieb:
„subjektive Standpunkte aus den Medien als voreingenommen betrachtet“

Was genau ist daran falsch ?
Weil die Bewertung was subjektiv ist ganz schnell noch viel subjektiver ist, als die Inhalte der bewerteten Medien. Das Einführen von Wichtungen innerhalb der Statistik kann man sich eigentlich nur erlauben, wenn man die Wichtung gut begründen kann. Daher ein statistischer Nachweis geführt ist, dass die Rohdaten einen Bias haben, den man über Wichtung versucht zu reduzieren. Samt länglicher Beschreibung für welche Fälle die Wichtung den Bias reduziert und für Welche nicht.
Wobei die Erwartungshaltung ist, dass bei xAi und allem anderen wo Elon Musk Einfluss hat, ein etwaiger, belastbarer Nachweis nicht geführt, geschweige denn veröffentlicht wird.


Banned schrieb:
Politische Informationen sollte man generell immer kritisch hinterfragen. Wenn es da auch KIs gibt, die sich vom Mainstream abssetzen, finde ich daran erstmal nichts Schlimmes. So ist es doch bei den Akteuren in einer pluralistischen Gesellschaft auch.
Wenn man Regeln zur Wahrheitsfindung aufstellt, wäre schon zu erwarten, dass gescheit ausgelegte Systeme divergieren. Ein System welches mehr oder weniger Statistik anwendet und mit der selben Datenlage grundlegend Abweichungen zeigt ist extrem auffällig. Wenn sich diese Auffälligkeit daraus ergibt, weil bewusst, aber unbegründet (siehe weiter oben im Post) ein Bias eingeführt wurde, ist das kein wünschenswertes Feature.

Kuristina schrieb:
Genau. Keine Beeinflussung von irgendeiner Seite. Das wäre das einzig ehrliche.
Also ein LLM ohne Trainingsdaten, weil es keine Beeinflussung/Input geben darf? Das wird nicht funktionieren!
Ich weiß nicht, was deine genaue Absicht war, aber so wie du die Anforderung formulierst, wird das Nichts.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, floTTes, Stramma und 8 andere
Inxession schrieb:
Eine KI wird immer nur so dumm/schlau sein, wie ihr Programmierer ...

Von selbst lernenden und absolut korrekten KI´s sind wir noch WEIT entfernt.
Absolut Korrekt? Das ist doch gar nicht möglich, da die Meinung was korrekt ist von Person zu Person unterschiedlich ist.
 
  • Gefällt mir
Reaktionen: cbforum.scooter, Inxession, dideldei und eine weitere Person
Guitarluke schrieb:
Je nach Definition muss kein Widerspruch zu "rein, nüchtern und objektiv sein ohne jeglichen politische Agenda." vorhanden sein.

z.B. wenn man es so definiert, wie es im ursprünglichen Sinne mal gemeint war, nämlich als einfache Vermeidung von Ausdrücken und Handlungen, die Gruppen von Menschen beleidigen könnten. (Quelle Wikipedia).

Und wer sich wann beleidigt fühlt, ist eben komplett subjektiv. Das ist doch genau der Kern und irgendwie auch die Strategie von Wokeness: Den Diskurs durch Vermeidung und Ächtung von hypothetisch verletzenden Inhalten und Handlungen so weit einzuschränken, bis er der eigenen Agenda entspricht, weil man sich die Deutungshoheit anmaßt, darüber zu entscheiden, was diese hypothetischen Tatbestände erfüllt.

Grundsätzlich zu unterscheiden ist zwischen Strafbarkeit und Unsittlichkeit (im nicht strafbaren Sinne). Letzteres ist eben rechtlich nicht bindend und sollte nicht von pseudo-intellektuellen Eliten definiert werden, sondern ergibt sich in seiner Umkehrung historisch betrachtet ganz automatisch aus dem täglichen Zusammenleben.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und cbforum.scooter
Dabei habe der Chatbot subjektive Medienstandpunkte als voreingenommen zu betrachten.

Klingt für mich genau wie es ein sollte. Dass beim Anpassen von Einstellungen unvorhersehbare Dinge passieren, kenne ich auch von weitaus weniger komplizierten Anwendungen. Ich sehe hier kein Problem.
 
Banned schrieb:
Wenn die KI selbst über Musk negative Äußerungen tätigt, zeigt das doch, dass es funktioniert.
Nicht zwangsläufig. Was funktioniert, ist bislang dass Musk massiven Einfluß auf eine KI hat.
Karl S. schrieb:
Eine KI die sich nicht scheut politisch inkorrekte Positionen zu vertreten ist genau das was fehlt.
Gefehlt hat das nicht wirklich jemandem. @JackTheRippchen hats schon gesagt, "politisch inkorrekte" Positionen haben keinen Wert für sich genommen, sondern es hängt vom Kontext ab. Den setzt hier leider
der Eigentümer, der die KI zum eigenen Vorteil "schult".
Karl S. schrieb:
Im Buch "The Bell Curve: Intelligence and Class Structure in American Life"
Wenn du ein Buch zitierst, das explizit kontrovers diskutiert wurde und dessen Aussagen nicht nur inhaltlich, sondern auch wegen unsauberer Methodiken kritisiert wird, solltest du vielleicht auch einen entsprechenden Disclaimer setzen. In dem Buch wird eine Menge wissenschaftlich unbewiesenes Zeug erzählt, den der rechte "Rand" gerne als "Beweis" anführt für seine rassistischen Ansichten.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Stramma, Strubbel99 und 5 andere
Kadett_Pirx schrieb:
Warum sollte man ihn erziehen? Sind unbequeme Fragen und Antworten nicht ertragbar?
Lügen und Falschinformationen sind keine unbequemen Fragen. Sollte mittlerweile eigentlich klar sein...
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Stramma, s0undjan und 13 andere
_casual_ schrieb:
Grundsätzlich sehe ich die Entwicklung ja positiv. Das Problem mit den Antworten ließe sich lösen, in dem Quellenangaben immer dabei sein müssen, ...
Nein, die häufigste Form der Propaganda ist weglassen, Quellen zitieren die einem passen bringt nichts. Das Dilemma haben wir schon bei vielen Themen, bei denen Forschungsergebnisse unterdrückt werden.
 
  • Gefällt mir
Reaktionen: Stramma, zhompster und Kuristina
Marcel55 schrieb:
Ich möchte keinen politisch inkorrekten und noch viel weniger einen politisch korrekten Chatbot sehen, das Ding soll einfach ungefärbt sein und gut ist.
Sind sie aber nicht und werden sie auch nie sein, da die Beeinflussung einfach zu wichtig ist.
Es wäre ja schön dumm eine riesen Aufwand für Zensur, shadowbanning, Abmahnungen, Gerichtsprozesse, debanking und Inhaltsgesetze zu veranstallten und eine KI dann aber einfach laufen zu lassen.
 
Wintermute schrieb:
Auf der anderen Seite der PC steht rechtspopulistiches, reaktives Bullshitting. Mindestens ein genauso übler Dämpfer für jeden Diskurs. Kaum wer produziert so hochfrequent und gezielt Desinformation wie ultrarechte Akteure, bspw. die Trump Admin, große Teile der AfD oder Orbans Fidesz. Da hats mittlerweile reichlich Daten und Studien dazu. Ich wäre sofort für eine nüchterne, möglichst objektive und neutrale AI. Grok ist das allerdings nicht, wie man sieht. Um das zu gewährleisten müsste eine AI von einer Art Konsortium mit "checks and balances" und mit einem klar formulierten, bindenden Mission Statement betrieben werden. Eher im Sinne von Wikipedia als einem börsennotierten Unternehmen.
Hier wird auch nur in schwarz/weiß gedacht. Nur wenn jemand zu bestimmten Themen nicht PC sein will, ist es nicht automatisch rechtspopulistiches, reaktives Bullshitting.
 
  • Gefällt mir
Reaktionen: tritratrullala und Swarley
Alphanerd schrieb:
Was bitte ist denn "die Wahrheit"?
Fangen wir mit den Unterschieden der verschiedenen Völkergruppen an, außer bei dem bösen weißen Mann darf man doch keine Differenzen mehr aufzeigen, da man Gefahr liefe als Rassist verurteilt zu werden.

Sexueller Dimorphismus? Existiert nicht, weil dank politischer Korrektheit alle gleich sind, da wird auch gerne die Wahrheit verleugnet.
 
  • Gefällt mir
Reaktionen: cbforum.scooter und tritratrullala
Karl S. schrieb:
Im Buch "The Bell Curve: Intelligence and Class Structure in American Life" wird der überdurchschnittliche IQ der aschkenasischen Juden thematisiert.
Wem das nichts sagt, es ist ein Buch über die angeblich von der "Rasse"beeinflusste Intelligenz, basierend auf Arbeiten des Pioneer Fund/Human Biodiversity Foundation. Selbstverständlich sind darin Juden die hochintelligenten Strippenzieher.

"weder falsch noch rassistisch", ist klar :rolleyes:
 
  • Gefällt mir
Reaktionen: xXBobbyXx, CPUinside, Veitograf und 6 andere
🍿
Xitter und die typischen Social Media enthalten eh viel Rotz, dieser Bot wird das alles nicht besser machen.
Gestern im Firefox festgestellt: ctrl+alt+x öffnet:

Screenshot 2025-07-08 143121.png



-MK schrieb:
^^
Sebbi schrieb:
KI ist in großen Teilen einfach nur noch Spielerei
Wenn's funzt dann nimmt die einem die Arbeit ab, auch schon vor 2 Jahren, und ich nutze selbst (fast) keine "AI".
Sebbi schrieb:
was haben die Generationen in Ausbildung dann noch anschließend im Kopf außer Jux und Dollerei?
🥴
Sebbi schrieb:
Wie eben das der Holocast angeblich nur eine Erfindung wäre ....
Vermutlich der am besten dokumentierte Massenmord, aber einige Leute sind einfach unbelehrbar.
Wenn ich dann an so einige Kreaturen denke:
It never happened, but I wish it did and we will do it again.
🥴
rorian schrieb:
Also wie bei allen anderen Ai Chatbots auch, nur eher konservativ/rechts ausgerichtet.
🥴
Meanwhile die Rechten im Bildgenerator: Wehrmachtsoldat -> der dann evtl. mit schwarzer Hautfarbe generiert wird -- und schwupps machen die genau die gegenteilige Aussage. Also ob der von dir zitierte Teil der Realität entspricht?..
Alphanerd schrieb:
LOL
Musste schmunzeln wo nach der PoE-Gaming-Klamotte einige festgestellt haben was er für ein Schwachmat mit Winzego ist. Einfach nur peinlich der Typ.
Lynchtactical schrieb:
Schon witzig wie man einen Chatbot entwickelt der Free Speech und blah sein soll und so nur um ihn dann einzuschränken wenn er Sachen über einen schreibt, die einem nicht passen.
Musks ego.
Banned schrieb:
Wenn es da auch KIs gibt, die sich vom Mainstream abssetzen, finde ich daran erstmal nichts Schlimmes. So ist es doch bei den Akteuren in einer pluralistischen Gesellschaft auch.
Vlt. weit hergeholt: Zumindest in einer Astrophysikrunde würde ich keine Flerfs, Kreationisten und Electric Universe Verfechter einladen.
gimmix schrieb:
Diskursmanipulation
Informations-Dystopie
Too late und imo haben wir den Kampf was Überachung und Datenschutz angeht auch verloren.

E: @Muntermacher: Ich weiß nicht was ich von deinem Post bzw. deiner Position halten soll. Es gibt einfach DInge die so überwältigend offensichtlich falsch sind... Je nach Behauptung und Beweislage verwerfe ich die halt sofort, ob ich das dann auch so kommuniziere...

EE: @Muntermacher Beispiel: X Mitte 30 sagt zu mir: 1) Es gibt Fälle von Missbrauch zwischen nicht heterosexuellen. <- völlig richtig
2) (Ergo) Alle nicht heterosexuellen sind so. <- kompletter Schwachfug
Was willst du in der Situation machen? Flüchten? Diplomatie? Ob kommuniziert oder nicht, diese Aussage geht direkt in die Tonne weil sie eben nicht der Realität entspricht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strubbel99 und Alphanerd
Muntermacher schrieb:
Edit: als Wissenschaftler a.D. finde ich es immer bedenklich, wenn jemand meint so sehr recht zu haben, daß er andere Meinungen pauschal als falsch deklariert. Und das sage ich obwohl ich weder Impfgegner, Klimawandelleugner, Coronaleugner oder AfD-Wähler bin, im Gegenteil.
Dass du es als notwendig erachtest (nicht, dass du es tust), deine Meinungsäußerung mit dem zweiten Satz zu rechtfertigen, zeigt deutlich, wie schlecht die allgemeine Diskussionskultur inzwischen geworden ist. Eine Meinungsäußerung (nicht das Verkünden "der Wahrheit"!) sollte dessen nicht bedürfen und sollte, trotz ggf. abweichender eigener Meinung, als solche akzeptiert werden. Ja, auch dann, wenn du Impfgegner, AfD-Wähler wärst.
 
  • Gefällt mir
Reaktionen: DoS007, cbforum.scooter, Rockstar85 und 3 andere
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben