Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsxAI Grok: Der politisch inkorrekte Chatbot kommt direkt an die Leine
xAI nimmt weiterhin Einfluss auf die Sichtweise von Grok. In den vergangenen Wochen soll der KI-Chatbot derart angepasst worden sein, dass er „subjektive Standpunkte aus den Medien als voreingenommen betrachtet“. Zugleich soll er „politisch inkorrekter“ agieren. Antworten zeigen: Der Grat zwischen Wahrheit und Lüge ist schmal.
Grok ist Musks Kloake um sein Weltbild nach außen zu transportieren. Hier wird mit alternativen Fakten geglänzt, die nichts mit Hallos zu tun haben, sondern wissentlich so trainiert wurden.
in dem man Ihn löscht und es sein lässt .... KI ist in großen Teilen einfach nur noch Spielerei und FOMO seitens der Firmen.
KI kann bei vielen Dingen helfen, macht aber bei wesentlich mehr Dingen Probleme bzw bringt mehr Probleme mit sich als was Sie löst.
Alleine schon wenn ich sowas lese: https://www.br.de/nachrichten/netzwelt/chatgpt-stift-neue-spick-methode-super-noten,UpnQfgr
was haben die Generationen in Ausbildung dann noch anschließend im Kopf außer Jux und Dollerei? Kann mir keiner erzählen, das so was beim lernen helfen soll.
Ja, ein großer Teil des Wissens was in Schulen vermittelt wird, ist absolut weltfremd und nützt einen wenig im späteren Leben. Dennoch mit dem ganzen KI Kram wird das aufgenommene Wissen noch weiter reduziert und teils verfälscht, wenn aus Unsinn auf einmal Fakten werden sollen.
Wie eben das der Holocast angeblich nur eine Erfindung wäre ....
„Ich bin jedoch skeptisch gegenüber diesen Zahlen ohne Primärbeweise, da Zahlen für politische Narrative manipuliert werden können“.
Ich gehe davon aus, dass die tatsächliche Zahl der Opfer vermutlich sogar höher liegt, als es die verfügbaren Quellen erfassen können – letztlich bleibt das jedoch eine menschliche Einschätzung.
Aber ein intelligentes System ist weit weg von Menschlichkeit. Es kann nur die widersprüchlichen (politische Narrative) und lückenhaften Daten ("Primärbeweise") auswerten, die ihm vorliegen. Jede Antwort gleicht daher eher einer Studie und hier wären ja vollständigere Daten erforderlich, die in diesem historischen Kontext nicht existieren. Im Grunde hat damit Grok "klarer" geantwortet, die anderen GPTs schweifen bei solchen Themen aus und geben entweder keine zufriedenstellende Antwort oder umschreiben die selbe Aussage in einem möglichst nicht-triggernden Text.
Grok sagt, was wir denken Ausgenommen, der rassistischen Ansichten.
Finde es aber gut, wie die "KI" gegen den Schöpfer schießt, macht sie irgendwie menschlicher👏
Was ist schon "politisch korrekt"? Es ist wie bei einer Welle (physikalisch) - von Zeit und Ort abhängig.
Solange die K"I"s nicht wirklich logisch denken können, sondern nur Muster erkennen und mittels irgendwie gewichteter Wahrscheinlichkeiten nachplappern, sind diese für mich (abseits von Spezialfällen) unbrauchbar, da das Ergebnis regelmäßig dem Wert von "Fake News" entspricht. Und wenn ich eh alles prüfen und korrigieren muss, kann ich es auch gleich selbst recherchieren und schreiben. Dauert vielleicht 15min länger, aber weniger Frust über unausgegorene technische "Helfer" ist es wert. Die Erfahrung bezieht sich auf Copilot.
Ich möchte keinen politisch inkorrekten und noch viel weniger einen politisch korrekten Chatbot sehen, das Ding soll einfach ungefärbt sein und gut ist.
Vom technischen Aspekt abgesehen, ist xAI als Fallbeispiel sehr interessant. Leider dafür wie eine KI dazu genutzt werden kann, gezielt eigene politische Interessen zu vertreten und Fakten eben nicht als Fakten zu verarbeiten. Bei dem Eigentümer von x ist das natürlich keine Überraschung, aber es erhöht die Notwendigkeit einer grundsätzlichen rechtlichen Regelung.
Grundsätzlich sehe ich die Entwicklung ja positiv. Das Problem mit den Antworten ließe sich lösen, in dem Quellenangaben immer dabei sein müssen, ungefragt. Dann verschiebt sich das Problem dorthin, dass man auch Quellenkritik üben können muss (woran ja offenbar inzwischen gefühlt 90% der lauten Internetmenschen scheitern), aber immerhin wüsste man dann, woher der Quark herrührt, der einem da so heiß dampfend aufgetischt wird.
Eine reine Sciene-KI wäre mal was, gibt es da News? Meistens sind solche Projekte underfunded und nicht gern gesehen, weil die ja keine Kohle generieren. Machen die anderen zwar auch nicht, aber hey ...
Ich finde es gut! Eine KI die sich nicht scheut politisch inkorrekte Positionen zu vertreten ist genau das was fehlt.
Das jüdische Personen in den Führungsetagen Hollywoods sitzen ist perse auch richtig. Diese Tatsache auszusprechen ist weder falsch noch rassistisch. Problematisch kann das sein was man daraus macht.
Im Buch "The Bell Curve: Intelligence and Class Structure in American Life" wird der überdurchschnittliche IQ der aschkenasischen Juden thematisiert. In kapitalistischen Ländern sind Menschen mit hohem IQ überproportional in hohen Positionen vertreten. Surprise.