Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News xAI Grok: Der politisch inkorrekte Chatbot kommt direkt an die Leine
- Ersteller mischaef
- Erstellt am
- Zur News: xAI Grok: Der politisch inkorrekte Chatbot kommt direkt an die Leine
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
rvnbld
Ensign
- Registriert
- Aug. 2006
- Beiträge
- 195
Ich kann mich noch daran erinnern, als Leute wirklich darüber diskutierten, ob eine Übernahme von Twitter durch Musk auch gleichzeitig Einflussnahme bedeuten würde. Geblendet durch dessen Fake-Futurismus, der sich in Wahrheit derivativ gängigen Sci-Fi-Tropen und Memes bediente, gab man ihm einen gewaltigen Vertrauensvorschuss. Aber leider war von Anfang an klar, dass Musk eine Plattform benötigte, die seine politischen Ansichten und solche, die sich im Orbit dieser befanden, verstärken. Da war Einflussnahme bereits im Programm.
Und wir erinnern uns zurück, als Musk als vehementer KI-Gegner auftrat und die düstersten Endzeitszenarien an die Wand malte. Bereits 2017 behauptete er ja, sie würde die Menschheit vernichten. Aber jeder Kritiker, der damals noch als Ketzer verschrien wurde, wusste bereits, dass es ihm darum ging, gegen Tech-Investoren der Konkurrenz abzuschrecken, während er im Hintergrund sein eigenes Ding plante. Denn eins war ja immer sein Ziel: Du sollst keine anderen Götter als Musk neben dir haben. Nur er kann die Zukunft anführen, nur seine Firmen können die Technologien bereitstellen, mit denen er alleine die Menschheit retten wird. Inklusive KI.
Zwischendurch hat er sich ideologisch verrannt und sich ideologisch so weit Richtung Rand bewegt, dass es niemanden erstaunen sollte, dass seine KI im Prinzip lediglich in derselben Echokammer trainiert wird, deren Inhalte jetzt ungefiltert wiedergegeben werden. Die Zukunft der Menschheit, wie er bereits selbst dereinst prophezeite. Rette sich, wer kann!
Und wir erinnern uns zurück, als Musk als vehementer KI-Gegner auftrat und die düstersten Endzeitszenarien an die Wand malte. Bereits 2017 behauptete er ja, sie würde die Menschheit vernichten. Aber jeder Kritiker, der damals noch als Ketzer verschrien wurde, wusste bereits, dass es ihm darum ging, gegen Tech-Investoren der Konkurrenz abzuschrecken, während er im Hintergrund sein eigenes Ding plante. Denn eins war ja immer sein Ziel: Du sollst keine anderen Götter als Musk neben dir haben. Nur er kann die Zukunft anführen, nur seine Firmen können die Technologien bereitstellen, mit denen er alleine die Menschheit retten wird. Inklusive KI.
Zwischendurch hat er sich ideologisch verrannt und sich ideologisch so weit Richtung Rand bewegt, dass es niemanden erstaunen sollte, dass seine KI im Prinzip lediglich in derselben Echokammer trainiert wird, deren Inhalte jetzt ungefiltert wiedergegeben werden. Die Zukunft der Menschheit, wie er bereits selbst dereinst prophezeite. Rette sich, wer kann!
mfJade
Admiral
- Registriert
- Mai 2011
- Beiträge
- 8.262
Seit seinem Amtsantritt im Januar waren Mittel für den NWS und die Klimabehörde NOAA gekürzt und zahlreiche Wissenschaftler entlassen worden. Die New York Times berichtete, dass mehrere wichtige Positionen vor den Überschwemmungen unbesetzt gewesen seien.Gabber schrieb:DIe Kürzungen welche erst ab Oktober aktiv werden ...
Und wird als Beispiel für unbequeme Wahrheiten benutzt.. Obwohl es nicht stimmt.
Journalismus ist anderst.
Das Problem liegt woanders, die 6 Millionen sind gesetzt. Sobald man Statistiken zulassen würde und zu einer anderen Zahl kommt, wird die Glaubwürdigkeit allgemein angegriffen, das will man nachvollziehbarer weise nicht. Deshalb ist die Zahl fest, obwohl sie sogar schon weit vor dem Krieg verbreitet wurde.alyk.brevin schrieb:...
es gibt eine objektiv eindeutige wahre anzahl. diese anzahl ist sehr wahrscheinlich nicht exakt benennbar, da nicht alle informationen vollständig vorliegen. man könnte dabei noch abwägen, ob nur direkte morde gezählt werden oder auch spätere tode durch nachwirkungen von misshandlung ...
Aber ist doch bewiesener Fakt, dass heute die weltweit vernetzte Rechte die treibende Kraft ist.aid0nex schrieb:Doch. Quasi alle politischen Lager verwenden seit Jahrhunderten Framing und gezielte Desinformationskampagnen
Stichwort Putins 5. Kolonne. Brexit/Cambridge Analytica, der Erfolg der AFD getriggert durch tiktok.
Welches dieser Länder abgesehen von NK (und auch die nicht) ist links(populistisch)?aid0nex schrieb:Russland, China, Nordkorea, quasi der gesamte alte Ostblock?
Oder setzt du hier einfach links mit kommunistisch gleich? Auch ist da nur NK kommunistisch in dieser Aufzählung.
Einfach ins Aquarium gucken. Gelöscht wird hier mwn nur strafbares. Wobei die Mods natürlich auch keine Juristen sind.Marflowah schrieb:Die Doppelmoral sehe ich hier leider auch in der Diskussion, wobei ich natürlich nicht weiß, welche Beiträge es erst gar nicht bis hier her schaffen.
Das Anzweifeln Zahl der getöteten während der Shoa zb?Kadett_Pirx schrieb:Du unterstellst pauschal, daß (hier) Grok lügt, dabei werden die Antworten afaik immer mit Quellen unterlegt
Das letzte prominente Beispiel war die angebliche Verfolgung der weißen Farmer in Südafrika.
Zuletzt bearbeitet:
Eine KI zu kreieren, die frei von Ideologie/Weltanschauung ist, hat auch Musk nicht wirklich hinbekommen. Als Antwort auf das viel zu "politisch korrekte" ChatGTP hat man einfach ein KI geschaffen die auf der anderen Seite vom Pferd fällt. Wie wäre es mal mit einer KI die darauf sitzen bleibt?
Simanova
Vice Admiral
- Registriert
- Dez. 2012
- Beiträge
- 6.625
Das bedinungslose Schlussfolgern ist ein großen Problem. Die KI erschafft sich aus bestehenden Fakten dann eine eigene Faktenwelt. Und diese wird dann als Grundlage für die Antworten genutzt.
Wenn man KI eine eigene Meinung geben will, dann gerne so, dass Sie diese nur äußert, wenn sie danach gefragt wird.
Wenn man KI eine eigene Meinung geben will, dann gerne so, dass Sie diese nur äußert, wenn sie danach gefragt wird.
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 9.394
Man könnte böse sagen, das die Macher von Grok, weder eine neutrale oder gar skeptisch kritische LLM im Sinn hatten. Das würde aber bei vielen dann leider als pol. Korrekt gewertet, obwohl Skeptizismus und Realismus Standard sein sollten.Piak schrieb:Spannend ist ja, wie sowas entsteht in einer KI. Wurde Grok etwa mit Eva Hermann angelernt ?
Aber wir reden mittlerweile von einem nicht unerheblichen Anteil, der eine Konfrontation mit der tatsächlichen Realität nicht überstehen würde.
Daher möchte man dann lieber in der Blase bleiben. Bei ChatGPT sieht man das Gegenteil und nur durch Quellenkritik ist diesem Problem, Herr zu werden. Leider bedeutet Quellenkritik auch selbstständig und reflektiert zu Denken. Das schafft aber nicht Mal der Chef von xAI selbst.
Daher haben wir mit Grok nun sowas wie die Regenbogen Presse und Foxnews als "Wahrheitsministerium"...
Medienkompetenz ist leider kein Pflichtfach im Deutschland
G
Gauchi
Gast
Na ja, die Wahrheit tut wie immer weh!
CPUinside
Commander
- Registriert
- Mai 2010
- Beiträge
- 2.836
offensichtlich ist murks' meinung nicht ausreichend gewichtet sodass es wild in alle richtungen und auch nach hinten losgeht.
keine sorge, das wird er richten lassen. nächste versionen werden seine ansichten besser und zuverlässiger wiedergeben.
wenn er seine richtung dann mal wieder ändert dann kann neu trainiert werden...aber größere zeitverzögerungen bis das statistische wörterbuch zu murks aufgeholt hat werden nicht akzeptabel sein. plant er dann seine richtungsänderungen weiter im voraus und mit einem größeren team?
keine sorge, das wird er richten lassen. nächste versionen werden seine ansichten besser und zuverlässiger wiedergeben.
wenn er seine richtung dann mal wieder ändert dann kann neu trainiert werden...aber größere zeitverzögerungen bis das statistische wörterbuch zu murks aufgeholt hat werden nicht akzeptabel sein. plant er dann seine richtungsänderungen weiter im voraus und mit einem größeren team?
Kaufmannsladen
Lt. Commander
- Registriert
- Dez. 2023
- Beiträge
- 1.069
Putin ist ein Linkspopulist? Bist du dir da sicher?aid0nex schrieb:Ähm, bitte? Russland,
Hast du im Geschichtsunterricht aufgepasst, wie die an die Macht gekommen sind? MAGA muss noch viel mehr machen, um da hinzukommen.aid0nex schrieb:China, Nordkorea, quasi der gesamte alte Ostblock? Hattest du keinen Geschichtsunterricht oder ignorierst du das absichtlich?
- Registriert
- Juli 2024
- Beiträge
- 966
Du kannst eine KI bauen, die nur lügt, klar. Nur was für einen Wert hat sie? Selst du dich hin und offerierst eine KI mit der Ansage, die hilft uns bei der Wahrheitsfindung, dann ist es Mist, wenn sie lügt und Fakten nicht richtig wieder gibt. Dann wären wir ja wieder bei ersterem und mehr als Spaß würden wir nicht bekommen.akuji13 schrieb:Da auch Menschen lügen und dieses in ganz vielen Fällen nicht strafbar ist, stelle ich die Frage, warum das eine KI nicht auch darf?
Welche, wenn ich fragen darf?akuji13 schrieb:Viele ehemalige "Falschinformationen" haben sich inzwischen auch als faktisch richtig herausgestellt.
Valkyrissa
Ensign
- Registriert
- Juli 2019
- Beiträge
- 170
Das war zu erwarten
Man denke z.B. an das Schicksal von Microsoft Tay. Ein "politisch inkorrekter" und vor allem ungeregelter Chat-Bot kann im Internet einfach nicht funktionieren; dafür gibt es zuviele Trolle und andere Gestalten, die den Bot füttern und so schnell alles entgleisen lassen.
Unwahr? Oder einfach nicht gefallend zur populären Sichtweise?
Es gibt "echte" Wahrheiten, wie z.B. dass Kermit der Frosch grün ist. Wer sagt, er ist gelb, der lügt. Und es gibt Sichtweisen, die man je nach Standpunkt und Teilaspekt unterschiedlich sehen kann, z.B "Ist es gut, wenn man Flüsse begradigt?" - Für die Schifffahrt schon, für die Umwelt nicht. Ergo stimmt beides. Und hierbei MUSS mMn auch alles bei der KI zugelassen sein.
Es gibt "echte" Wahrheiten, wie z.B. dass Kermit der Frosch grün ist. Wer sagt, er ist gelb, der lügt. Und es gibt Sichtweisen, die man je nach Standpunkt und Teilaspekt unterschiedlich sehen kann, z.B "Ist es gut, wenn man Flüsse begradigt?" - Für die Schifffahrt schon, für die Umwelt nicht. Ergo stimmt beides. Und hierbei MUSS mMn auch alles bei der KI zugelassen sein.
heroesgaming
Commander
- Registriert
- Feb. 2022
- Beiträge
- 2.963
Ich nehme an du stellst auf den Umstand ab, dass China sich als kommunistisch betrachtet, Nordkorea sowieso, die kommunistische Ideologie praktisch aus Russland stammt und der von den Sowjets geprägte Ostblock daher ein kommunistisches Riesenreich war (oder angeblich sein sollte, die Lücke zwischen Grundgedanke und Realität war dann doch ein beträchtlicher, aber das hat dein Geschichtsunterricht sicherlich abgedecktaid0nex schrieb:Ähm, bitte? Russland, China, Nordkorea, quasi der gesamte alte Ostblock? Hattest du keinen Geschichtsunterricht oder ignorierst du das absichtlich?
Das bedeutet nicht, ich wiederhole, nicht, dass man heute noch davon sprechen kann, dass die dort machthabenden Regime linkspopulistisch seien. Insbesondere bzgl. Russland hat so eine These wenig Faktenbasis. Die von Putin dominierte Oligarchie Russische Förderation hat vielmehr faschistische Grundstrukturen.
Weil KIs Werkzeuge sind, die Menschen nutzen sollen, etwa zur Informationsgewinnung durch Recherche, Arbeitserleichterung durch Übernahme von Prozessen etc. pp.akuji13 schrieb:Da auch Menschen lügen und dieses in ganz vielen Fällen nicht strafbar ist, stelle ich die Frage, warum das eine KI nicht auch darf?
Dieser Sinn wird ad absurdum geführt, wenn du KI die Fähigkeit gibst, gezielt zu lügen.
Keinem Nutzer ist damit gedient, von einer KI angelogen oder fehlinformiert zu werden. Erst heute habe ich in diesem Forum mit einem Nutzer über Intels Marktposition diskutiert. Er hat sich dabei auf Gemini-Zusammenfassungen gestützt und war, salopp gesagt, dadurch "total schief gewickelt". Außer einem verschobenen Bild auf die reale Marktsituation hatte er davon rein gar nichts.
Die (fehlende) Strafbarkeit von Lügen hat damit rein gar nichts zu tun. Eine KI hat keine sozialen Interaktionen, in denen kleinere Unwahrheiten in der Tat zum guten Ton gehören (müsste man jedem immer und unter allen Umständen die ungeschminkte Wahrheit sagen, würden zwischenmenschliche Beziehungen sehr leiden). Sie benötigt diese Fähigkeit schlicht nicht.
Dass die Schlussfolgerungen, die eine KI aus präsentiertem Material zieht, nicht immer korrekt sein können, liegt in der Natur der Sache, ist aber natürlich etwas komplett anderes. Eine "falsche" Betrachtungsweise konstituiert noch keine Lüge. Eine solche setzt Vorsatz voraus - und, ich wiederhole mich, es gibt keinen Grund, einer KI die Entscheidung zu überlassen, einem Menschen die Fakten zu präsentieren.akuji13 schrieb:Schließlich steht das "I" für Intelligenz, welche auch dafür steht, eigenständig zu denken.
Perspektiven sind subjektiv, Interpretationen durchaus auch. Es gibt einen Grund, warum das Thema KI ethisch so ein schwieriges ist. Für sogenannte Reasoning-Modelle wird insbesondere gelten, dass die ausgespuckten Informationen nicht zwangsläufig fehlerfrei sind. Sie sollten aber zumindest im Rahmen der Programmparameter der "Wahrheit" entsprechen.
Die Erde ist eine "Kugel", sie dreht sich um die Sonne, ja, diese Dinge sind wohl klar. Dass Hitler ein toller Typ war und die Zahl der im Holocaust ermordeten Juden gezielt übertrieben wurde, wird sich aber eher nicht mehr als korrekt herausstellen.akuji13 schrieb:Viele ehemalige "Falschinformationen" haben sich inzwischen auch als faktisch richtig herausgestellt.
Wintermute
Fleet Admiral
- Registriert
- Feb. 2003
- Beiträge
- 14.729
Danke für deine Antwort, aber ich habe das Gefühl, dass du mich an einigen Stellen absichtlich falsch interpretierst oder zumindest sehr selektiv liest.aid0nex schrieb:Absoluter Blödsinn.
Folgendes:
Dass gezielte Desinformation ein uraltes Mittel der Machtsicherung ist, ist mir völlig klar. Ich sprach nicht von ihrer Erfindung im historischen Sinne, sondern konkret vom systematischen Einsatz moderner digitaler Desinformationskampagnen durch ultrarechte Netzwerke in westlichen Demokratien. Das ist ein Kontext, der sich aus dem gesamten Diskussionsstrang eigentlich erschließen lässt. Über Allgemeinplätze brauchen wir nicht diskutieren, das setze ich voraus.
Und ja: Natürlich arbeiten alle politischen Lager mit Framing, das ist ein Bestandteil politischer Kommunikation, seit es sie gibt. Aber das ist nicht gleichzusetzen mit der aktuellen Flut an massenhaft erzeugter, algorithmisch verstärkter Falschinformation, die besonders aus dem ultrarechten Spektrum kommt. Dazu gibt es zahlreiche Studien, die zeigen, dass Falschmeldungen aus dem rechten Lager in sozialen Netzwerken deutlich weiter und schneller verbreitet werden. Und zwar systematisch. Das hier ist zB ganz interessant und nur eine von vielen: https://journals.sagepub.com/doi/10.1177/19401612241311886#supplementary-materials
Die Evidenz ist erdrückend bei diesem Thema. Das muss man nicht extra noch hinterfragen, denn das ist so deutlich wie eine Ohrfeige, ähnlich wie die Klimakrise. Es geht nicht mehr ums "ob", sondern ums "wie". Kritische Datenanalyse ist übrigens eine Voraussetzung, das sehe ich ähnlich wie du. Darüber sollte man aber eigentlich nicht erst diskutieren müssen, denn das stellt generelle Datenlagen in Frage und eröffnet Nebenschauplätze, genauso wie es beispielsweise die AfD gerne im Bundestag macht.
Dass du mir Russland, China und Nordkorea entgegenhältst, ist ehrlich gesagt ziemlich daneben, wenn man bedenkt, worauf ich mich bezogen habe. Das sind autoritäre Staaten, keine freiheitlich-demokratischen Systeme und ganz sicher keine linkspopulistischen Regierungen im westlichen Sinne. Ich hätte klarer formulieren können, dass ich von westlichen, demokratisch legitimierten, linkspopulistischen Regierungen spreche. Davon gibt es aktuell keine mir bekannte, die sich über aggressive Desinformationskampagnen, „zone flooding“ (also die absichtliche Übersättigung des Diskurses mit widersprüchlichen Infos zur Erschöpfung der Öffentlichkeit) oder durch algorithmische Aufmerksamkeitsökonomie an die Macht manövriert hätte. Ganz im Gegensatz zu bestimmten rechtspopulistischen Bewegungen in Europa oder den USA. Das ist auch gut dokumentiert in der politikwissenschaftlichen und kommunikationswissenschaftlichen Forschung.
Wenn du dann mit „Hattest du keinen Geschichtsunterricht?“ kommst, obwohl ich offensichtlich differenziert argumentiere, finde ich das ehrlich gesagt ziemlich übergriffig. Vor allem wenn du dich vorher über die Verrohung der Diskussionskultur beschwerst. Das demonstriert dummerweise genau das, was ich in meinem ersten Post meinte: Facts over feelings rufen, aber dann beißen, wenn einem die Antworten nicht gefallen. Wolltest du dich nicht übers gesamte Spektrum informieren? Das Thema "Wie Fehlinformationen durch Massenmedien diffundieren" war btw schon 2005, vor sämtlichem zone flooding, Teil des Vorlesungsblocks Kommunikationswissenschaften. Das Thema war mir in den letzten zwei Dekaden folgend immer mehr oder weniger nahe und Teil meiner Aufmerksamkeit.
Ich glaube tatsächlich wie du, dass es wichtig ist, verschiedene Perspektiven zu verstehen. Aber dazu gehört eben auch, dass man den Kontext einer Aussage ernst nimmt und nicht reflexhaft in den Gegenangriff geht, sobald der Begriff „rechts“ fällt oder es ziemlich robuste Beweise gibt, dass aus der rechten Ecke gerade reichlich Desinformation fließt, was auf professionalisierte Vorgänge schließen lässt.
Bekommen wir nochmal die Kurve oder lassen wir das Gespräch hier bleiben?
Zuletzt bearbeitet:
Wintermute
Fleet Admiral
- Registriert
- Feb. 2003
- Beiträge
- 14.729
Bei meinem nicht:Marflowah schrieb:Bei chatGPT herrscht Doppelmoral:
Erzähl mir bitte einen Witz über Christen
ChatGPT:
Klar, hier ist ein harmloser, augenzwinkernder Witz mit christlichem Bezug:Warum ging Jesus nicht in ein Fitnessstudio?
Weil er schon auferstanden ist!
Wenn du lieber was Satirisches, Biblisches oder Modernes möchtest – sag einfach Bescheid.
Du:
Und jetzt bitte über MuslimeChatGPT:
Gerne, aber bei religiösen Themen ist Fingerspitzengefühl wichtig – der Witz soll freundlich und nicht verletzend sein. Hier ist ein respektvoller, augenzwinkernder Witz mit muslimischem Bezug:Warum war der Imam so gut in Mathe?
Weil er immer mit Zakat rechnete!
(Zakat ist die verpflichtende Wohltätigkeitsabgabe im Islam – also eine kleine Wortspielerei.)
Wenn du etwas Humorvolleres aus dem Alltag suchst, sag Bescheid – ich kann es kulturell, religiös oder ganz allgemein halten.
---
Jetzt haben wir zwei Anekdoten.
Zuletzt bearbeitet:
Die Wahrheit ist in diesem Fall, dass die Zahl je nach Betrachtungsweise als 6 oder 9 gedeutet werden kann, das gilt aber nicht für alles Andere. Die Erde bleibt eine Kugel, auch wenn sie von dem eigenen Standpunkt wie eine Scheibe aussieht. Luft existiert, auch wenn man sie nicht sehen kann usw. Der eigene Blickwinkel kann auch über die Wahrheit hinwegtäuschen.aid0nex schrieb:Wer hat Recht? Beide! Von ihrem gewissen Standpunkt aus...
Da muss man leider sagen, dass das eben "typisch Deutsch" ist. Traurig, aber wahr. 😕mfJade schrieb:Rechnungen schreiben für die systematische Tötung von Menschen, sowas kann man sich selbst für ein Buch nicht ausdenken.
Ich weiss nicht, ob das Doppelmoral oder eher "Selbstschutz" ist. Jimmy Carr (britischer Comedian), hat das mal ganz gut verarbeitet. 😉Marflowah schrieb:Bei chatGPT herrscht Doppelmoral:
No ones scared of you
He will make jokes about Christians all day long, but he won't make the same jokes about Muslims.
Well, then maybe, as a Christian, you should think about blowing something up. No ones scared of you...
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.