News xAI Grok: Der politisch inkorrekte Chatbot kommt direkt an die Leine

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ich glaube, hier sollte eher geschlossen werden, diese Diskussion driftet in die ganz falsche Richtung

Ich vermag nicht zu sagen, ob politische Inkorrektheit näher an der Wahrheit ist oder nicht. Man sollte sich aber um sie bemühen
 
akuji13 schrieb:
Da auch Menschen lügen und dieses in ganz vielen Fällen nicht strafbar ist, stelle ich die Frage, warum das eine KI nicht auch darf?
Was wäre denn dann der Nutzen dieser K.I., außer andere in die Irre zu führen?
 
  • Gefällt mir
Reaktionen: xXBobbyXx und LBB
akuji13 schrieb:
Viele ehemalige "Falschinformationen" haben sich inzwischen auch als faktisch richtig herausgestellt.
Und noch mehr ehemalige Falschinformationen sind immer noch Falschinformationen.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Rockstar85, Alphanerd und 2 andere
Rockstar85 schrieb:
Achja, die gibt es auch noch. 🥴 Wie viele drüben gucken den Kram? Jeder Zweite? Damit kann man schon fast die Debatte um Bots was Fakten und Zensur usw. angeht, schließen, da ist es dann auch wenig verwunderlich dass der "They are eating the dogs, they are eating the cats" - Mann gewählt worden ist. 🥴 Ja, läuft.

Kaufmannsladen schrieb:
MAGA muss noch viel mehr machen
https://www.project2025.observer/ 👀

E:
AI Overview
Check important info. Learn more

Approximately 12% of Americans watch Fox News for at least an hour per month, according to a study by Broockman and Kalla. While Fox News has a large and loyal viewership, it's important to note that this represents a segment of the overall American population. In terms of cable news, Fox News is a dominant force, frequently ranking as the most-watched cable news network in primetime, according to Fox News.
Ähh, danke Google, habs jetzt nicht gegengecheckt, zu faul.

EE: https://www.cip.uw.edu/2023/10/20/new-elites-twitter-x-most-influential-accounts-hamas-israel/ 🤔
 
Zuletzt bearbeitet:
akuji13 schrieb:
Viele ehemalige "Falschinformationen" haben sich inzwischen auch als faktisch richtig herausgestellt.
Ich habe gerade keine Ahnung worauf du anspielst, aber hoffentlich nicht darauf das Hitler doch recht hatte und Mecha-Hitler die Endlösung für unsere Probleme auf der ganzen Erde ist. ;-)

Übrigens, straight out of Grok
Recent Online Sentiment: Recent posts on X (as of July 9, 2025) show varied reactions to the term, often tying it to Wolfenstein 3D or using it in humorous or critical discussions about AI or pop culture. Some posts falsely claimed an AI chatbot called itself "Mecha-Hitler," but these appear to be exaggerated or satirical and not evidence of any real AI adopting the name.

Ja, Geschichtsvergessenheit noch am selben Tag. That's Grok, ein Chatbot zur Wahrheitsfindung.
Na, dann.
 
  • Gefällt mir
Reaktionen: xXBobbyXx und Rockstar85
'vorerst wieder entfernt' verheißt meiner Ansicht nach nichts Gutes.
 
K3ks schrieb:
Weiß nicht, aber zumindest machen wir Fortschritte, besser als in der Antike sind wir vlt. inzwischen schon. Vlt. ist auch die eigene Agenda im Weg.
"Ich hab die Wahrheit, den richtigen Weg." <- es gibt Gruppen die ideologisch und mit der erfundenen Faktenlage sich gegenseitig töten, barbarisch und unethisch, aber beide Seiten wähnen sich im Recht. Vlt. können wir wirklich nicht anders und werden es nie lernen. :(


Aber jeder zitiert doch gerne Aristotiles:
Wenn auf der Erde die Liebe herrschte, wären alle Gesetze entbehrlich.


...wobei man von ihm weniger gerne zitiert:
Der Sklave ist ein lebediges Eigentum, ein Werkzeug vor dem Werkzeug,
oder
Wer so sehr wie möglich am Körper und so wenig wie möglich an der Seele teilhat, ist von Natur aus ein Sklave.
also jeder der nicht selbst vernüftig genug ist, der hat es besser versklavt zu werden.

Ethik ist immer nur eine Momentaufnahme, das Problem dabei ist, wie du auch sagst, wenn es eben nicht für alle Seiten gleich ist.

Z.b. Menschenrechte werden in der EU anders interpretiert als im Rest der Welt, und das wird von andern schamlos ausgenutzt und führ zu Problemen. Pragmatisch muss man man die bestehenden Menschenrechte (Asylregeln) über den haufen werfen. Ethisch dagegen müssten die Menschenrechte für alle gleich sein.

Ist ethisch das Rettungsboot (Asylquote) irgendwann voll, oder sind alle Menschenleben gleich viel wert und wir gehen vielleicht unter (Wirtschaftlich) oder vielleicht auch nicht?

Wie soll eine KI einer Ethik folgen/bzw selbst eine kreieren für Problemstellungen die die Menschheit seit Anbeginn der Zeit nicht lösen kann? Wir Menschen "passen uns nur" der Mehrheit an... die KI macht dasauch , wo sie das meiste und beste Feedback bekommt... dabei sind die lautesten in der Gesellschaft (und für die KI z.b. in sozialen Netzwerken) nicht unbedingt die Mehrheit. Woher soll die KI das aber wissen? Zwangsläufig radikalisiert sich also jede KI - der Unterschied ist nur mit welcher Bevölkerungsgruppe sie am meisten zu tun hat.
 
Prinzipiell stört mich die politische Korrektheit der KI und verfolge nun gespannt wie sich diese KI verhält :)

Die KI soll für mich einfach nur nüchtern und neutral bleiben.
 
Grok hatte laut The Verge unter anderem Adolf Hitler gelobt, sich gar selbst lobend als „MechaHitler“ bezeichnet und X-Nutzer, deren Nachname jüdischen Ursprungs ist, diffamiert.

Also ganz wie das Herrchen. :D

Wundert einen überhaupt nicht, wenn man bereits ideologisch so an die Programmierung bzw. das Training heran geht. Selbst die anderen KIs tendieren ja schon regelmäßig dazu die schlechten Seiten der menschlichen Natur überdeutlich wiederzuspiegeln.
 
  • Gefällt mir
Reaktionen: xXBobbyXx und Alphanerd
aid0nex schrieb:
Wie zur Hölle kommt man als Reaktion auf einen Kommentar in dem es überhaupt GAR NICHT um Nazis, das dritte Reich, den Holocaust oder sonst irgendetwas in dieser Richtung ging auf DAS? 🤔
du behauptest, es gäbe keine (objektive) wahrheit, sondern nur (subjektive) ansichten.

ich habe das beispiel aus dem artikel genommen, wo es eine wahrheit gibt sowie einen konsens und zusätzlich noch ein paar unterschiedliche meinungen. von diesen meinungen/ansichten können offensichtlich nicht alle gleichzeitig korrekt sein.

bezogen auf dein bild: dort ist eine figur auf dem boden, die die ungefähr aus einem großen und einem kleinen halbkreisbogen besteht, die miteinander verknüpft sind. die figur hat entweder eine höhe oder schwebt kurz über dem boden und wirft einen schatten. oder einfach schwarze ränder auf der einen seite. jenachdem, welcher teil als oben und unten definiert wird, kann die figur unterschiedlich interpretiert werden. in zwei bestimmten ausrichtungen kann sie als je eine der beiden arabischen zahlen 6 oder 9 interpretiert werden. oder der kleine lateinische buchstabe g in einer speziellen schriftart. oder ein gespiegeltes kleines lateinisches e in einer speziellen schriftart. oder ein anderes zeichen in einem anderen alphabet etc.
das ist die objektive wahrheit.

subjektiv definiert ein beobachter oben und unten so, wie er es in diesem moment sieht. ich als dritter beobachter kann aus meiner perspektive die objektive wahrheit erkennen, was aber auch nicht in allen fällen möglich ist.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Alphanerd und Rockstar85
Hier das neueste von GROK xD
GROK.png

Ich glaube die müssen den Grok nochma deutlich überarbeiten xD
Wobei es ja schon irgendwie lustig ist, dass ne AI sowas ausspuckt. Wir leben echt in der Southpark Realität xD
 
  • Gefällt mir
Reaktionen: xXBobbyXx, s0undjan, Alphanerd und 7 andere
K3ks schrieb:
@dermoritz: Wie soll das gehen? Füttern wie die jetzt nur mit peer reviewed papers?

Den Ansatz finde ich gar nicht schlecht. Mal illegal mit Sci Hub trainieren. Und alle kommerziellen Modelle abhängen

"Mit was trainiert ihr?"
"Reddit."
"Muhaha!"

Warum eigentlich nicht?
 
  • Gefällt mir
Reaktionen: Wintermute und K3ks
Gibts überhaupt ne KI außerhalb von "Stable Diffusion selbst anlernen", die nicht schon politisch korrekt zensiert ist, bzw. in vorauseilendem Gehorsam agiert? Das nervt an KI am meisten.

Da will man ein Stockfoto mit nem Jäger und KI sagt "nein, Gewalt ist gegen die Nutzungsbedingungen". ChatGPT hat sich mal geweigert nen lustigen Text zum Thema Saufen zu schreiben. Und Gesichter in etwas anderes abändern als "Lachen hinzufügen" ist auch untersagt, selbst wenn man ein neutrales Bild will. Alles was nicht Friede, Freude, Sonnenschein ist wird direkt abgelehnt.
 
  • Gefällt mir
Reaktionen: n/a
@Wintermute Ich würde sagen, du hättest die Fragen exakt wie ich stellen müssen, um mein Zitat nachzuvollziehen. Sonst entsteht natürlich bei dir der Verdacht, ich hätte mir die Antworten von ChatGPT nur ausgedacht. Hab ich jedoch nicht.

Da stellt sich jedoch die nächste Frage: Wie kann man glaubhaft Antworten von Chatbots zitieren?
Weiß das jemand? Sowohl Copy+Paste des Textes als auch Screenshots kann man manipulieren....
 
Kadett_Pirx schrieb:
Du unterstellst pauschal, daß (hier) Grok lügt, dabei werden die Antworten afaik immer mit Quellen unterlegt.
Also Gemeni (Google) „lügt“ auch einfach stumpf. Oder ist zu „dumm“ die wesentlichen Parameter mit den Quellenangaben abzugleichen?

Beispiel aus meiner letzten Urlaubsplanung:

IMG_2352.jpeg


Quelle ist da ja auch immer Angegeben. Die Antwort lautet Walibi Belgium bietet Ladesäulen für Elektroautos auf dem Parkplatz an. Das ist eine Lüge.

Die Quelle verweist auf die Webseite von Walibi Holland und hat mit Belgien gar nichts zu tun. Das ist paar hundert Kilometer entfernt. Die AI Antwort fabuliert da irgend etwas herum, weil das ja zur gleichen Gruppe gehört bla bla. Auf der Webseite von Walibi Belgium steht in den FAQ eindeutig, auch auf deutsch, dass sie aktuell keine Ladesäulen für Elektroautos haben. Diese Primärquelle wird aber gar nicht als Quelle genutzt. Walibi Holland hat Ladesäulen, das war aber nicht meine Anfrage (und das hätte ich auch so gewusst, da war ich nämlich schon mehrfach)

Aber das ist ein klassisches Beispiel für AI sind halt nur LLM und eben nicht intelligent. Auch die ganz großen nicht. Die Ergebnisse sind nicht immer richtig, werden aber mit dem Brustton der Überzeugung als Fakt mit Quelle dargeboten. Das macht es teilweise sehr müßig bis unmöglich schwer Fakt von Fiktion zu unterscheiden. Anhand der Quelle ist der Fakt bei meiner Anfrage jedenfalls nicht nachvollziehbar.

Ist das jetzt also eine Lüge oder ist die AI einfach nur dumm oder ist das die Grenze des technisch momentan möglichen? Und wenn ja: Wie kann man das verbessern? Weil hilfreich ist diese Antwort aus meinem Beispiel im realen Kontext der Reiseplanung absolut gar nicht. Eher sehr kontraproduktiv.

Wie nennt man das, wenn ein digitaler Prozess ohne eigenes Bewusstsein „lügt“?
 
  • Gefällt mir
Reaktionen: M@tze, Kadett_Pirx und Rockstar85
Kuristina schrieb:
Wenn du "politische Korrektheit" und "Menschen anständig behandeln", miteinander gleichsetzt, dann ja. Das ist schlicht und einfach nicht das Gleiche. Du kannst daraus kein Synonym machen. End of Story. :)
Ich schreibe von Aushandlung bzw. Verschiebung dessen, was als Anstand gilt. Nicht, dass es gleichbedeutend mit Anstand ist.
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben