News xAI Grok: Der politisch inkorrekte Chatbot kommt direkt an die Leine

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
6.785
xAI nimmt weiterhin Einfluss auf die Sichtweise von Grok. In den vergangenen Wochen soll der KI-Chatbot derart angepasst worden sein, dass er „subjektive Standpunkte aus den Medien als voreingenommen betrachtet“. Zugleich soll er „politisch inkorrekter“ agieren. Antworten zeigen: Der Grat zwischen Wahrheit und Lüge ist schmal.

Zur News: xAI Grok: Der politisch inkorrekte Chatbot kommt direkt an die Leine
 
  • Gefällt mir
Reaktionen: Sennox, Gravlens, floTTes und 5 andere
Wie erzieht man einen politisch inkorrekten Chatbot?
Am Besten gar nicht :D
 
  • Gefällt mir
Reaktionen: Sennox, very ape, potatoreactor und 45 andere
Eine KI wird immer nur so dumm/schlau sein, wie ihr Programmierer ...

Von selbst lernenden und absolut korrekten KI´s sind wir noch WEIT entfernt.
 
  • Gefällt mir
Reaktionen: potatoreactor, The Hillsman, testwurst200 und 6 andere
Erziehen? Grok? Überhaupt gar nicht.

Grok ist Musks Kloake um sein Weltbild nach außen zu transportieren. Hier wird mit alternativen Fakten geglänzt, die nichts mit Hallos zu tun haben, sondern wissentlich so trainiert wurden.
 
  • Gefällt mir
Reaktionen: Sennox, knilch247, Nagilum99 und 50 andere
Warum sollte man ihn erziehen? Sind unbequeme Fragen und Antworten nicht ertragbar?
 
  • Gefällt mir
Reaktionen: Sennox, z-R-o-, Quidproquo77 und 55 andere
Unwahrheiten sind immer die Sachen, die mir nicht gefallen.
 
  • Gefällt mir
Reaktionen: Sennox, LT.Verleum, OldPolarBear und 31 andere
Ach schön, eine Aluhut-KI 🥲
 
  • Gefällt mir
Reaktionen: Sennox, Nagilum99, Der.Boese.Wolf und 25 andere

Wie erzieht man einen politisch inkorrekteren Chatbot?​


in dem man Ihn löscht und es sein lässt .... KI ist in großen Teilen einfach nur noch Spielerei und FOMO seitens der Firmen.
KI kann bei vielen Dingen helfen, macht aber bei wesentlich mehr Dingen Probleme bzw bringt mehr Probleme mit sich als was Sie löst.
Alleine schon wenn ich sowas lese:
https://www.br.de/nachrichten/netzwelt/chatgpt-stift-neue-spick-methode-super-noten,UpnQfgr

was haben die Generationen in Ausbildung dann noch anschließend im Kopf außer Jux und Dollerei? Kann mir keiner erzählen, das so was beim lernen helfen soll.
Ja, ein großer Teil des Wissens was in Schulen vermittelt wird, ist absolut weltfremd und nützt einen wenig im späteren Leben. Dennoch mit dem ganzen KI Kram wird das aufgenommene Wissen noch weiter reduziert und teils verfälscht, wenn aus Unsinn auf einmal Fakten werden sollen.
Wie eben das der Holocast angeblich nur eine Erfindung wäre ....
 
  • Gefällt mir
Reaktionen: potatoreactor, Ein_Freund, floTTes und 7 andere
Also wie bei allen anderen Ai Chatbots auch, nur eher konservativ/rechts ausgerichtet. Was ne Schlagzeile für das linke Medium.
 
  • Gefällt mir
Reaktionen: z-R-o-, Dimitri Kostrov, testwurst200 und 22 andere
von wahrheitsfindung zu abgedrehter propagandamaschine. hätte man drauf wetten können.
 
  • Gefällt mir
Reaktionen: very ape, nosound, Känguru und 12 andere
Ich bin jedoch skeptisch gegenüber diesen Zahlen ohne Primärbeweise, da Zahlen für politische Narrative manipuliert werden können“.

Ich gehe davon aus, dass die tatsächliche Zahl der Opfer vermutlich sogar höher liegt, als es die verfügbaren Quellen erfassen können – letztlich bleibt das jedoch eine menschliche Einschätzung.

Aber ein intelligentes System ist weit weg von Menschlichkeit. Es kann nur die widersprüchlichen (politische Narrative) und lückenhaften Daten ("Primärbeweise") auswerten, die ihm vorliegen. Jede Antwort gleicht daher eher einer Studie und hier wären ja vollständigere Daten erforderlich, die in diesem historischen Kontext nicht existieren. Im Grunde hat damit Grok "klarer" geantwortet, die anderen GPTs schweifen bei solchen Themen aus und geben entweder keine zufriedenstellende Antwort oder umschreiben die selbe Aussage in einem möglichst nicht-triggernden Text.
 
  • Gefällt mir
Reaktionen: Tera_Nemesis, ÖX45, HOCLN2 und 5 andere
Ich wollte es einfach mal aus Neugier probieren, auch wenn ich es mir schon denken konnte: ;)

Screenshot 2025-07-08 091243.png
 
  • Gefällt mir
Reaktionen: potatoreactor, RainbowSix5, nizr und 8 andere
Grok sagt, was wir denken :hammer_alt:
Ausgenommen, der rassistischen Ansichten.
Finde es aber gut, wie die "KI" gegen den Schöpfer schießt, macht sie irgendwie menschlicher👏
 
Was ist schon "politisch korrekt"? Es ist wie bei einer Welle (physikalisch) - von Zeit und Ort abhängig.

Solange die K"I"s nicht wirklich logisch denken können, sondern nur Muster erkennen und mittels irgendwie gewichteter Wahrscheinlichkeiten nachplappern, sind diese für mich (abseits von Spezialfällen) unbrauchbar, da das Ergebnis regelmäßig dem Wert von "Fake News" entspricht. Und wenn ich eh alles prüfen und korrigieren muss, kann ich es auch gleich selbst recherchieren und schreiben. Dauert vielleicht 15min länger, aber weniger Frust über unausgegorene technische "Helfer" ist es wert. Die Erfahrung bezieht sich auf Copilot.
 
  • Gefällt mir
Reaktionen: dideldei, gartenriese, Elektrolyt und 4 andere
Ich möchte keinen politisch inkorrekten und noch viel weniger einen politisch korrekten Chatbot sehen, das Ding soll einfach ungefärbt sein und gut ist.
 
  • Gefällt mir
Reaktionen: Quidproquo77, VRRisJut, testwurst200 und 24 andere
IMG-20250707-WA0006.jpg

Aus Sekundärquelle, da ich natürlich kein Twitter mehr nutze.

Elmo ist jetzt Grok oder Grok ist Elmo, so genau weiß ich das noch nicht.
 
  • Gefällt mir
Reaktionen: Wedge. und the_IT_Guy
Vom technischen Aspekt abgesehen, ist xAI als Fallbeispiel sehr interessant. Leider dafür wie eine KI dazu genutzt werden kann, gezielt eigene politische Interessen zu vertreten und Fakten eben nicht als Fakten zu verarbeiten. Bei dem Eigentümer von x ist das natürlich keine Überraschung, aber es erhöht die Notwendigkeit einer grundsätzlichen rechtlichen Regelung.
 
  • Gefällt mir
Reaktionen: Shad82, chaopanda, Alex Shep und 9 andere
Grundsätzlich sehe ich die Entwicklung ja positiv. Das Problem mit den Antworten ließe sich lösen, in dem Quellenangaben immer dabei sein müssen, ungefragt. Dann verschiebt sich das Problem dorthin, dass man auch Quellenkritik üben können muss (woran ja offenbar inzwischen gefühlt 90% der lauten Internetmenschen scheitern), aber immerhin wüsste man dann, woher der Quark herrührt, der einem da so heiß dampfend aufgetischt wird.

Eine reine Sciene-KI wäre mal was, gibt es da News? Meistens sind solche Projekte underfunded und nicht gern gesehen, weil die ja keine Kohle generieren. Machen die anderen zwar auch nicht, aber hey ...
 
  • Gefällt mir
Reaktionen: s0undjan, morb, Rockstar85 und 2 andere
Ich finde es gut! Eine KI die sich nicht scheut politisch inkorrekte Positionen zu vertreten ist genau das was fehlt.

Das jüdische Personen in den Führungsetagen Hollywoods sitzen ist perse auch richtig. Diese Tatsache auszusprechen ist weder falsch noch rassistisch. Problematisch kann das sein was man daraus macht.
Im Buch "The Bell Curve: Intelligence and Class Structure in American Life" wird der überdurchschnittliche IQ der aschkenasischen Juden thematisiert. In kapitalistischen Ländern sind Menschen mit hohem IQ überproportional in hohen Positionen vertreten. Surprise.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Tera_Nemesis, romeon und 5 andere
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben