News xAI Grok: Der politisch inkorrekte Chatbot kommt direkt an die Leine

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Interessante Entwicklung. Ich vermute, das Forum wird hier wieder explodieren mit Beiträgen, die schwer handzuhaben sind :D

AAAAABER: Das gehört genau so dazu, wie die Entwicklungen den Bias der KI auszubalancieren. Die ersten Modelle - insbesondere von Google oder Open AI - waren klar "links" vor allem natürlich auch, da das "internet" bzw. die überwiegende Meinung in den meisten Online verfügbaren Artikeln eben zeitgeistig gerade links ist.

Wer möchte kann das sogar mit ChatGPT diskutieren, dann erklärt es einem, warum es nur dem folgen kann, was an Informationen angeboten wird. Und genau so, wie man es eben aushalten muss (wenn es einem denn schwer fällt), dass aktuell jede Werbefamilie schwarz ist und Schwimmbadplakate vor Übergriffen durch weisse dicke Frauen warnen - was alles auch die KI füttert - so muss man es umgekehrt eben auch aushalten, wenn dann eine anders abgestimmte KI etwas politisch Unkorrektes raushaut.

Finde das alles sehr spannend und es gilt wie immer: Wer nicht mit den Geburtswehen und Übertreibungen in die eine oder andere Richtung beim Erwachsenwerden einer Technologie leben kann, kommt halt einfach in fünf Jahren wieder, wenn KI-Modelle fertig und etabliert sind.
 
Kadett_Pirx schrieb:
Warum sollte man ihn erziehen? Sind unbequeme Fragen und Antworten nicht ertragbar?

Das solltest du besser diejenigen Fragen, die versucht haben ihn zu erziehen:

"Anfang 2025 gab es Berichte, dass xAI versuche, Grok so zu trainieren, dass er Quellen ignoriert, die Musk oder US-Präsident Donald Trump der Verbreitung von Desinformation bezichtigen."

https://de.wikipedia.org/wiki/Grok
 
  • Gefällt mir
Reaktionen: Quidproquo77, Strubbel99, Wedge. und 5 andere
Marcel55 schrieb:
Ich möchte keinen politisch inkorrekten und noch viel weniger einen politisch korrekten Chatbot sehen
Genau. Keine Beeinflussung von irgendeiner Seite. Das wäre das einzig ehrliche.
 
  • Gefällt mir
Reaktionen: gartenriese, aid0nex und tritratrullala
foofoobar schrieb:
sich als Nutzer von so einem offensichtlich manipuliertem System
Andere KI System sind ja auch "manipuliert". Die KI macht ja am Ende immer nur das was man ihr gibt, ob Gemini oder Grok, Googles KI geht ja auch gerne mal politisch Unbequeme Anforderungen aus dem Weg, wegen der politischen Correctness. Dann wird es auch gerne so dargestellt das nur weiße Böse sind und alle andere "Minderheiten" ja heilige wären, wobei Weiße eigentlich die Minderheit auf der Welt sind. ;)
 
  • Gefällt mir
Reaktionen: Quidproquo77, cbforum.scooter, Mithrandil und 2 andere
Tiis schrieb:
Jede KI sollte rein, nüchtern und objektiv sein ohne jeglichen politische Agenda.

Das ist sicherlich das Idealbild, das sich wahrscheinlich auch fast jeder wünscht. Leider sind die Informationen, mit denen die KIs arbeiten, an sich schon häufig nicht neutral bzw. frei von politischer Agenda. Die Herausforderung besteht also eher darin, die Informationen von dieser zu befreien, als ihnen eine solche anzuhaften.
 
  • Gefällt mir
Reaktionen: Quidproquo77, gartenriese und DerRico
Gab es nicht anfangs KIs die antisemitische und problematische Inhalte geteilt hat?

Ich sehe es hier eher andersherum.

Die KI ist eben nicht angepasst worden und zeigt nur das, was landläufig im Internet verbreitet ist. Ob es wahr oder falsch ist, steht dabei auf einem anderen Blatt.

Auch sehe ich leider im Artikel keine wirklichen Beweise dafür, dass die KI dahingehend erzogen wurde.
 
  • Gefällt mir
Reaktionen: dideldei, tritratrullala und Slayn
Inxession schrieb:
Eine KI wird immer nur so dumm/schlau sein, wie ihr Programmierer ...

Von selbst lernenden und absolut korrekten KI´s sind wir noch WEIT entfernt.

Das ist aber eben der Punkt: LLMs programmiert man nicht, man trainiert die. Da ist "erziehen" schon näher dran als "programmieren" um ehrlich zu sein.

Ein anderer Punkt: LLMs können nicht "absolut korrekt" sein. Das liegt daran, dass die natürliche Sprache selbst zu einem gewissen Grad uneindeutig ist. Und dem Bemchmark sind die besten LLMs bereits sehr nahe.
Das "Problem" ist eher, dass ein LLM lediglich die Trainingsdaten wiederspiegelt, der ganze Reasoning-kram usw. ist da nur drübergestülpte klassische Software.
 
Ich mag Grok! Seine Antworten sind erfrischend ehrlich!
 
  • Gefällt mir
Reaktionen: electronish
Ich frage mich ob das jetzt "nur" eine widerspenstige KI ist, oder ein "Trump Simulator" :evillol:
 
Mal einfach nur den Ist-Stand betrachtet ist Grok echt nicht übel meiner Meinung nach. Ich habe kein Abo oder sonst was und sehe nur die öffentlichen Interaktionen mit Grok auf Twitter, aber die sind meistens vom Standpunkt her wirklich neutral. Da wird auch hemmungslos gegen Musk und co. geschossen wenn die mal wieder BS erzählen :D
 
  • Gefällt mir
Reaktionen: electronish, Crucillus und tritratrullala
Das wird noch interessante Debatten geben. Im Artikel von Wikipedia sind schon 3 seriöse Schätzungen zum HC. Ich finde die Anmerkung des Bot daher absolut korrekt und die politische Instrumentalisierung bis zur kompletten Leugnung ist ja Fakt. Die absolute Opferzahl kann auch nicht bestimmt werden. Antworten und Anmerkungen im realistischen Rahmen sind also korrekt.

Ansonsten existieren in der Wissenschaft keine Wahrheiten, die gibt es nur in der Kirche. Es gibt nur Wahrscheinlichkeiten mit entsprechender Höhe. Politisch unkorrekte KIs sind damit Werkzeuge gegen Propaganda und Machtmissbrauch. Lügen, Halbwahrheiten und der Kampf gegen Fakenews sind ganz dünnes Eis der Mächtigen. In Deutschland kommt der Meinungskorridor noch dazu. Niemand braucht politisch korrekte KIs - wo wir dann beim Kern des Problems von Musk bis zur EU sind.
 
  • Gefällt mir
Reaktionen: electronish
Schon witzig, wie nun hart dran gearbeitet wird, dass dieser Bot dahingehend gebogen wird, damit es seinem freespeech jargon entspricht. Dachte lange Zeit, hey dieser Bot agiert ja wirklich frei und neutral.
 
Marcel55 schrieb:
Ich möchte keinen politisch inkorrekten und noch viel weniger einen politisch korrekten Chatbot sehen, das Ding soll einfach ungefärbt sein und gut ist.
Tiis schrieb:
Jede KI sollte rein, nüchtern und objektiv sein ohne jeglichen politische Agenda.
Genau. Der soll einfach objektiv korrekte Antworten liefern zu Fragen wie Palästina, Einwanderung, Klimaschutz, etc. Das kann doch nicht so schwer sein.

Ich finde diese Vorstellung immer verblüffend, es gäbe bei allem einen unpolitischen, neutralen Standpunkt. Als wäre nicht jedes etwas komplexere Thema in irgendeiner Form politisch aufgeladen.
Selbst wenn man überhaupt nichts anpasst, ist eine KI, die einfach 1:1 ihre Trainingsdaten wiedergibt, damit auch nur genau so "unpolitisch" wie das worauf die trainiert wurde. Bei der Auswahl und Gewichtung des Materials fängts ja schon an.
 
  • Gefällt mir
Reaktionen: electronish, s0undjan, Strubbel99 und 11 andere
Hab gestern irgendwo auf Twitter einen Inder gesehen, der Pakistaner verantwortlich für ein Gewaltdelikt machen wollte. Dann hat er grok gefragt und als grok ihm bestätigt hat, dass es Inder waren und auch die Quellen nennen konnte ist er komplett abgedreht und hat grok beschimpft und ist komplett durchgedreht.
 
Tiis schrieb:
Political Correctness ist die Seuche unserer Zeit.
Auf der anderen Seite der PC steht rechtspopulistiches, reaktives Bullshitting. Mindestens ein genauso übler Dämpfer für jeden Diskurs. Kaum wer produziert so hochfrequent und gezielt Desinformation wie ultrarechte Akteure, bspw. die Trump Admin, große Teile der AfD oder Orbans Fidesz. Da hats mittlerweile reichlich Daten und Studien dazu. Ich wäre sofort für eine nüchterne, möglichst objektive und neutrale AI. Grok ist das allerdings nicht, wie man sieht. Um das zu gewährleisten müsste eine AI von einer Art Konsortium mit "checks and balances" und mit einem klar formulierten, bindenden Mission Statement betrieben werden. Eher im Sinne von Wikipedia als einem börsennotierten Unternehmen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx, s0undjan, qappVI und 8 andere
Tiis schrieb:
Political Correctness ist die Seuche unserer Zeit. Jede KI sollte rein, nüchtern und objektiv sein ohne jeglichen politische Agenda.

Es kommt darauf an, wie man "Political Correctness" definiert...das kann alles und nix bedeuten.
Je nach Definition muss kein Widerspruch zu "rein, nüchtern und objektiv sein ohne jeglichen politische Agenda." vorhanden sein.

z.B. wenn man es so definiert, wie es im ursprünglichen Sinne mal gemeint war, nämlich als einfache Vermeidung von Ausdrücken und Handlungen, die Gruppen von Menschen beleidigen könnten. (Quelle Wikipedia).

Und ich finde es durchaus erstrebenswert, Gruppen von Menschen nicht mit Handlungen oder Ausdrücken zu beleidigen :)
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Stramma, s0undjan und 13 andere
Es liest sich einfach furchtbar dystopisch.
Diese KI-Bots haben durchaus ihre Berechtigung den Alltag zu erleichtern oder lästige Arbeit abzunehmen solange Themen technisch/faktenbasiert abgearbeitet werden können.

Aber z.B. politische Ansichten/Antworten werden niemals "neutral" sein, das bleibt ein feuchter Traum der Tech-Bros, deren Kernkompetenz nicht die Geisteswissenschaften sind.
 
  • Gefällt mir
Reaktionen: s0undjan, edenjung und Slayn
Politische Korrektheit ist ein Maßstab der für normale Menschen vollkommen irrelevant ist.
Die Wahrheit wird aufgrund politischer Korrektheit doch oft nicht mehr ausgesprochen.
 
  • Gefällt mir
Reaktionen: electronish, Quidproquo77, akuji13 und 15 andere
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben