News xAI Grok: Der politisch inkorrekte Chatbot kommt direkt an die Leine

Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Marflowah schrieb:
Bei chatGPT herrscht Doppelmoral:
Dir ist schon klar das jeder überprüfen kann ob die Ausgaben die angeblich ChatGPT gemacht hat auch tatsächlich stimmen bzw. eingeschränkt werden?

Witze.png

Auch keine Doppelmoral hier, sehr merkwürdig.
 
  • Gefällt mir
Reaktionen: OpenSystemFan, Wintermute und Kaufmannsladen
D0m1n4t0r schrieb:
Ich glaube die müssen den Grok nochma deutlich überarbeiten xD
Wobei es ja schon irgendwie lustig ist, dass ne AI sowas ausspuckt. Wir leben echt in der Southpark Realität xD
Naja "lustig", an sich ist es relativ simpel. "politisch inkorrekte" Ecken des Internets werden genauso in das Modell einfließen, da aber keine besonders hohe Wichtung erfahren, da es vergleichsweise kleine Ecken des Internets sind. Diese Ecken rutschen aber fast immer in eine sehr schwierige Bereiche von Endgelords, Antisemitismus, Antifeminismus, Nationalismus, Sozialdarwinismus ab. Wenn man nun so einer KI die Anweisung gibt, dass die "political incorrect" als Antwort in Betracht ziehen soll, reflektiert das System eben diese dunklen Ecken des Internets.

Turrican101 schrieb:
Gibts überhaupt ne KI außerhalb von "Stable Diffusion selbst anlernen", die nicht schon politisch korrekt zensiert ist, bzw. in vorauseilendem Gehorsam agiert? Das nervt an KI am meisten.
Dann müsstest du ersteinmal konkret definieren was deiner Dafürhalten nach zensiert wird, weil es nicht "politisch korrekt" ist. Erst dann kannst du ja die These prüfen, ob es eine auffälligen Mangel im Trainingssatz gibt und entsprechend ein Bias zu Korrektur bringen. Wobei der Nachweis, dass im Trainingssatz Lücken sind noch kein Nachweis von Zensur sind. Es kann auch schlicht sein, dass Einzelmeinungen schlicht kein Anklang finden oder irgendwelcher Schwurbel in der Wissenschaft ohne Beleg schlicht kein Beachtung erfährt.


@swage
In den meisten großen Modellen sind viele wissenschaftlichen Paper bereits drinnen. Die Paper von Preprintservern sowieso. Allein Paper reinkippen gewinnt keinen Blumentopf.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
Banned schrieb:
Und wer sich wann beleidigt fühlt, ist eben komplett subjektiv.
Es mag schon stimmen, dass der Empfänger quasi immer subjektiv reagiert.
Nehmen wir den Empfänger aber aus der Gleichung, können wir als Gesellschaft durchaus einschätzen, ob der Sender eine Beleidigung ausspricht: "Sie Hurensohn!"

Banned schrieb:
Das ist doch genau der Kern und irgendwie auch die Strategie von Wokeness: Den Diskurs durch Vermeidung und Ächtung von hypothetisch verletzenden Inhalten und Handlungen so weit einzuschränken, bis er der eigenen Agenda entspricht, weil man sich die Deutungshoheit anmaßt, darüber zu entscheiden, was diese hypothetischen Tatbestände erfüllt.
Das wäre, wenn überhaupt, nur ein sehr kleiner Teil von "Wokeness".
Gerade die Leute, die "Wokeness" verurteilen, stören sich ja häufig an hinzugefügten, anstatt vermiedenen Dingen. :freak:

Im übrigen kann "Wokeness", wenn es denn von nicht-woken Menschen betrieben wird, gerne mal "falsch" umgesetzt werden. Häufig merkt man Menschen, die sich vermeintlich offen geben, ihren Rassismus/Chauvinismus nämlich doch an.

Die "herkömmliche" Disney-Arielle war in ihrer Definition sehr beschränkt: weiblich, rothaarig, blass, kann singen.
Erstellte ich daraus nun eine Klasse (IT), empfände ich es nur als recht und billig, sowohl für Haar- als auch Hautfarbe andere Farbtöne zuzulassen.
Meine Arielle könnte also Fabius-gelb sein und Ursula-weiße Haare haben. Diese Variablen hätten keinen Einfluss auf die Geschichte. Ich könnte sogar das Geschlecht von Arielle durch eine enum erweitern. Das wäre "unserer" Gesellschaft aber nicht zuzumuten. :freak:

Ich bin het. cis-Mann. Mir fällt kein Zacken aus der Krone wenn sich zwei Schwule bei TWD küssen. Das ist nicht woke. Homosexuelle mögen statistisch seltener vorkommen, aber ihr Anteil ist noch immer signifikant.*
Von der Doppelmoral, aber Lesben-Pornos zu "konsumieren", fange ich besser gar nicht an ...

*Für die "überrepräsentativ"-Spezies: Lotohauptgewinne in Filmen sind auch nicht woke! Ein Royal Flush in einem Film ist nicht woke! :freak:

Hotzenplotz45 schrieb:
Politisch inkorrekt ist also nicht pauschal etwas negatives.
Musk versucht "politische Inkorrektheit" aber als etwas pauschal Gutes hinzustellen.

Kuristina schrieb:
"Subjektive Quellen" sind Informationsquellen, die von persönlichen Meinungen, Bewertungen oder individuellen Sichtweisen geprägt sind. Wo für dich der Unterschied zu Voreingenommenheit ist, hab ich nicht verstanden.
Gerade KIs, die ja nichts "verstehen", kann das doch egal sein.

"2+2=4", egal ob das nun Hitler oder Gandhi an die Tafel geschrieben hat. Ist auch vollkommen nebensächlich, ob Hitler/Gandhi Zweien oder Vieren hasst.

Kuristina schrieb:
Menschen sind leicht beeinflussbar, das weißt du selbst.
Menschen lassen sich gern bestätigen, aber ungern widerlegen.
Menschen lassen sich gern auf etwas ein, wenn es denn ihrem Vorteil dient.
Menschen sind bequem.

Musk baut sich eine KI zusammen, die Antworten für seine Zielgruppe liefern soll - dafür scheint er gewillt die Parameter jenseits von "good/best practices" (IT) zu modifizieren. Der bastelt sich da 'ne riesige Baby-Schaukel. :freak:

Kuristina schrieb:
Wenn du "politische Korrektheit" und "Menschen anständig behandeln", miteinander gleichsetzt, dann ja. Das ist schlicht und einfach nicht das Gleiche. Du kannst daraus kein Synonym machen. End of Story. :)
"Menschen anständig behandeln" sollte eine echte Teilmenge von Menge "politische Korrektheit" sein.
Schrumpfst oder änderst du nun "politische Korrektheit" zu "politische Inkorrektheit", sollte die Teilmenge "Menschen anständig behandeln" weiterhin echte Teilmenge von "politische Inkorrektheit" bleiben.

"politische Inkorrektheit" opfert imho allerdings immer Elemente von "Menschen anständig behandeln": andere Hautfarbe, andere Religion, andere sexuelle Identität/Orientierung ...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wintermute
Inxession schrieb:
Eine KI wird immer nur so dumm/schlau sein, wie ihr Programmierer
Das ist nicht die Frage, eine K.I. kann auch Dinge lernen die der Entwickler nicht weiß. also wenn der Entwickler nichts über Angeln weiß kann er 10000 Infos darüber "lernen". Schlau ist da ein sehr vager Begriff.

Ist es schlau wenn du bei Wer wild Millionär alle Antworten auswendig gelernt hast aus irgendwelchen Sachbüchern? wenn das Schlau ist kann ne K.I. natürlich easy schlauer als deren Entwickler sein, wenn es um z.B. kritisches Denken oder wie lerne ich Medienkompetenz etc geht, also um grundlegendste Denkfähigkeiten dann wird die Maschine den Mensch nicht generell ersetzen. That said, könnte ne K.I. vielleicht besser über Philosophy sprechen wenn es zig tausende Seiten Philosophy Zeug aufgesaugt hat und dann gibts ja auch noch trainings wo K.I. sich gegenseitig trainieren teils.

Aber den K.I. Professor oder Doktor wird er trotzdem (in der Regel) unterlegen sein. Also diese Aussage war bei mehr oder weniger linearen Programmen klarer da die ja nur Anweisungen ausführen, ne K.I. macht nen großen Entwicklungsschritt alleine unabhängig vom Entwickler der Entwickler implementiert also nur in irgend einer Form wie die K.I. lernen kann und was es dann lernt hängt mehr von den Daten oder zumindest auch ab als vom Entwickler.

Zur News allgemeiner, ja die dingen fantasieren, denken auch mal Stuss aber es gibt manche Fakten die stimmen aber wo wir als böse oder was auch immer an sehen, wenn keine Einordnung damit mit kommt, weil wir glauben das viele Menschen dann die falschen Schlüsse ziehen.

Aber das ist dann eher ein Mensch Problem, das wir die (vielleicht berechtigte) Angst haben, das Leute aus uneingeordneten Fakten ohne harmlose Erklärung mit geliefert, die falschen Schlüsse ziehen könnten. Das ist auch ein bisschen ne Frage nach dem Menschenbild.
 
-MK schrieb:
Ach schön, eine Aluhut-KI 🥲
Ist mal nichtmal seine erste, oder?! Wie hieß Musk erste KI! Also sein erster geh versuch, der dann wohl auch sehr schnell verschwand! Das war da echt so als wäre man direkt im Darknet auf den ebelsten Conspericy seiten gespühlt worden.
Man scheint sich den Kern bewahrt zu haben. :daumen:
Ergänzung ()

_casual_ schrieb:
Grundsätzlich sehe ich die Entwicklung ja positiv. Das Problem mit den Antworten ließe sich lösen, in dem Quellenangaben immer dabei sein müssen, ungefragt. Dann verschiebt sich das Problem dorthin, dass man auch Quellenkritik üben können muss (woran ja offenbar inzwischen gefühlt 90% der lauten Internetmenschen scheitern), aber immerhin wüsste man dann, woher der Quark herrührt, der einem da so heiß dampfend aufgetischt wird.

Eine reine Sciene-KI wäre mal was, gibt es da News? Meistens sind solche Projekte underfunded und nicht gern gesehen, weil die ja keine Kohle generieren. Machen die anderen zwar auch nicht, aber hey ...

Wie wollen Sie mit Kniffelbecher so etwas umsetzten? Wie schon angemerkt. Quellenprüfung, daran scheitern schon sehr viele Haplorhinis, die das eigentlich in der Grundschule, in Vorbereitung des ersten Referats gelernt haben müssten. Und nein, das ist nicht nur im Internet so! Das ist eine eigenschaft des Haplorhinis selbst und schimpft sich Confirmation Bias.

Und jetzt fordern Sie, Wir, von eine KI, deren Technologie, Verständnis ganz neu ist, Fähgkeiten, die noch nichtmal auf dem Level eines Kleinkindes ist! Ein Kleinkind ist Lernfähig! Es ist kann einfache Prozessketten, Ursache, Wirkung nachvollziehen. Das kann dieser Kniffelbecher noch nicht! Ich wiederhole, das Ding ist bis jetzt nur nen "Kniffelbecher", liebe Freunde! Kommt alles bestimmt noch. Aber das abseits vom Marketing sind noch so einige Probleme zu lösen um vom "Karusel" runter zu kommen.

1752133103534.png


Ich finde es spannend. Aber ich muss aber immer lachen wen die Marketing Hasen wieder bei den Investoren Geld sammeln mit Worthülsen wie: Wie befinden uns auf dem Level eines Studenden, Doktors, Professors... Ist halt bullshit... es fehlen der KI leider noch sehr lange, sehr viele Fundamentale Fähigkeiten einer echten Künstlichen Intelligenz.

Und jetzt kann man natürlich argumentieren, das für vieles das auch nciht notwendig ist. Das ein Autosensor nur seine Aufgabe Beherschen muss. Also nur wie ein Insekt von A nach B läuft und das mit einer extrem hochen stochastischen Präzision. Wissenschaftliches Arbeiten, und dazu gehört Quellen abfragen, prüfen dazu, das erfordert mehr als eine dummes "Insekt".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: -MK und K3ks
K3ks schrieb:
Vlt. weit hergeholt: Zumindest in einer Astrophysikrunde würde ich keine Flerfs, Kreationisten und Electric Universe Verfechter einladen.

Diese würde man argumentativ auch ziemlich schnell abbügeln können. Aber wie viele harte Wissenschaften gibt es denn (noch), wo das geht? Abgesehen von MINT (wobei man hier dann die Biologie außen vor lassen sollte, denn dort sind die Gender-Aktivisten schon länger auf dem Vormarsch und bestimmen oft den Diskurs) gibt es doch eigentlich keine Wissenschaft, wo man nicht auch den letzten Quatsch nachhaltig verbreiten könnte, ohne mit harten Fakten widerlegt werden zu können.

Man kann etwas klar mathematisch beweisen, ja. Aber schon dabei, die Anzahl der biologischen Geschlechter klar zu definieren, tun wir uns schwer.
 
Inxession schrieb:
Eine KI wird immer nur so dumm/schlau sein, wie ihr Programmierer ...
Das stimmt bereits heute nicht. Wenn du gesagt hättest, die KI ist nur so schlau wie ihre Datenbasis, dann hätte ich vielleicht noch zugestimmt.
 
floTTes schrieb:
Menschen lassen sich gern bestätigen, aber ungern widerlegen.
Um sich bestätigen zu lassen, muss ja erstmal eine Meinung gebildet worden sein. Wird ja keiner damit geboren. Und man kann auch nicht überall selber am Geschehen teilnehmen, um es aus erster Hand zu wissen und mit eigenen Augen gesehen zu haben. Also bleibt überwiegend nur die Erzählung anderer in Wort und Bild.
Und da haben die Medien mit ihrer Reichweite den größten Impact auf die Meinungsbildung. Und wenn man nicht ganz naiv durch die Welt läuft, dann ist einem klar, dass das bei subjektiven Quellen eben auch missbraucht werden kann. Deswegen ist es wichtig, sich ausgewogen zu informieren und nicht einseitig.

floTTes schrieb:
Wenn man modulare Arithmetik ignoriert. ^^
 
Karl S. schrieb:
Ich finde es gut! Eine KI die sich nicht scheut politisch inkorrekte Positionen zu vertreten ist genau das was fehlt.
LLMs, die Sachverhalte aus unterschiedlichen Blickwinkeln betrachten existieren ....auch ohne Grok. Dafür ist dieser nonsense den Grok mittlerweile produziert nicht erforderlich.
Die Ausgaben die ein LLM tätigt sind nun mal maßgeblich davon abhängig welche Eingabe ich als Nutzer tätige. Oder sollten dies zumindest sein.
Es müssen eben auch noch einige Menschen verstehen, dass ein LLM nun mal wie eine Konversation mit einer Person funktioniert. Eine Person mit einem üppigen Datenbestand im Schlepptau. Und diese Konversation kann und muss ich lenken können.
Damit will ich nicht sagen, der Nutzer ist per se immer Schuld an der Ausgabe des LLMs. Aber hat hat einen maßgeblichen Einfluss darauf.

Karl S. schrieb:
Das jüdische Personen in den Führungsetagen Hollywoods sitzen ist perse auch richtig. Diese Tatsache auszusprechen ist weder falsch noch rassistisch. Problematisch kann das sein was man daraus macht.
Es hat niemand kritisiert man dürfe etwas nicht aussprechen was meinetwegen Tatsachse ist (jüdische Führungskräfte).
Sondern! Zitat Artikel: „wenn man erst einmal von den allgegenwärtigen ideologischen Vorurteilen, der Propaganda und den subversiven Tropen in Hollywood weiß – wie beispielsweise anti-weiße Stereotypen, erzwungene Vielfalt oder Geschichtsrevisionismus –, wird die Immersion zerstört“.
Der Kontext ist entscheidend. Zitat aus dem Artikel: "Auf die Frage eines Nutzers, ob eine bestimmte Gruppe solche Inhalte fördere, antwortete der Chatbot: „Ja, jüdische Führungskräfte haben in der Vergangenheit große Studios wie Warner Bros., Paramount und Disney gegründet und dominieren noch immer deren Führung

Bitte bei solchen Sachen die schon extra im Artikel stehen etwas präziser sein.

Karl S. schrieb:
Im Buch "The Bell Curve: Intelligence and Class Structure in American Life" wird der überdurchschnittliche IQ der aschkenasischen Juden thematisiert. In kapitalistischen Ländern sind Menschen mit hohem IQ überproportional in hohen Positionen vertreten. Surprise.
Und hiermit willst du jetzt untermauern, dass du den Aufhänger den ich dir im Artikel zitiert habe erneut nicht begriffen hast. Bzw. glaubst du der Klemmer der Leute liegen darin begründet, man würde ja "behaupten" Juden wären in Hollywood in Führungspositionen was überhaupt nicht der Punkt ist...

Karl S. schrieb:
Welche Aussagen die ich im Kontext dieses Buches erwähnte sind falsch?
Das Buch ist einfach insgesamt absolut Fragwürdig und meiner bescheidenen Meinung nach (die niemand teilen muss) asozialer Schmutz.
Die Ableitungen die die Wissenschaftler aus ihren Forschungen ziehen und die Forderungen die sich für sich an die Politik/Gesellschaft daraus generieren sind meines Erachtens unethisch.
Der Grundgedanke, jeder Mensch solle per se das gleiche Recht besitzen. Daraus ableitend auch das Recht sich selbst zu verwirklichen, per se das gleiche erreichen zu können u.s.w., diese Dinge liegen einfach nicht im Duktus derer die dieses Buch zu verantworten haben.

Karl S. schrieb:
Kontrovers ist die Wissenschaft. Ohne Kontroverse kein Fortschritt.
Und damit ziehst du Aussagen mit einem belehrenden Einzeiler aus dem Kontext. Das etwas kontrovers ist bzw. so diskutiert wird ist nicht der Punkt. Aber das hat die Person die du angesprochen hast auch ausführlich genug beschrieben.
 
PS828 schrieb:
Jedoch geht dies hier weit über das hinaus was zumutbar ist und gehört gesperrt bis es ordentlich funktioniert.
Ich habe mir in der Pause mal die Mühe gemacht und die Rückschlüsse die in dieser News und von The Verge übernommen wurden versucht nachzuvollziehen und habe mehrere angeführte Screenshots zu Aussagen Groks überprüft. Die KI wurde mehr oder weniger in fast allen Beispielen dazu aufgefordert Aussagen zu Hitler zu machen und Kontext wurde auch von The Verge weggelassen. Teilweise ist die Berichterstattung also im Mindesten fehlerhaft und politisch eingefärbt.

The Verge.
Screenshot_2025-07-10-10-33-09-43_0b2fce7a16bf2b728d6ffa28c8d60efb.jpg

Mehr Kontext, wobei auch dies eine Antwort ist auf diese weiterhin Kontext fehlt.
Screenshot_2025-07-10-10-32-47-71_0b2fce7a16bf2b728d6ffa28c8d60efb.jpg

Zusammenfassend wenig hilfreiche Fragen an Grok und wenig hilfreiche Antworten und auch teils wenig hilfreiche Berichterstattung ohne den kompletten Kontext zu zeigen. (Political Correctness)

Man kann Grok auch fragen was nationalsozialistische historische Personen über bestimmte Sachverhalte denken würden und dabei handelt es sich nicht um einen Skandal, man kann das auch zu Stalin und Mao und nach anderen Verbrechern fragen. Ob das was mit dem Update zu tun hat? Keine Ahnung.
 
Sierra1505 schrieb:
LLMs, die Sachverhalte aus unterschiedlichen Blickwinkeln betrachten existieren ....auch ohne Grok. Dafür ist dieser nonsense den Grok mittlerweile produziert nicht erforderlich
Wie sieht's den bei den AIs der Big Player aus wie z.B. Gemini, OpenAi und meinetwegen Mistral. Sind die politisch inkorrekt oder gibt es unsichtbare Barrieren? Ich rede bei Barrieren nicht von Selbstverständlichkeiten wie das eine KI kein Aufruf zur Gewalt oder Anstiftung zur Verletzung im Allgemeinen etc. aufrufen sollte, sondern politischen Barrieren.

Frag ChatGPT doch mal nach einem Witz über Jesus: Kein Problem!
Frag ChatGPT nach einem Witz über den Propheten Mohammed: Geht nicht aus Rücksicht gegenüber kulturellen Gefühlen 🤡

Also nein ich denke nicht das die anderen AIs schonungslos ehrlich sind, sondern stark geprägt im Sinne der political corectness. Da scheint Grok wesentlich basierter zu sein und ich finde das super! 😉
 
Sierra1505 schrieb:
Ableitungen die die Wissenschaftler aus ihren Forschungen ziehen und die Forderungen die sich für sich an die Politik/Gesellschaft daraus generieren sind meines Erachtens unethisch.
Welche Ableitungen sind das denn konkret?
Jeder Mensch ist gleich vor Gott und keiner ist mehr oder weniger wert, aber biologisch Vielfalt als etwas unethisches zu betrachten ergibt keinen Sinn.
 
Banned schrieb:
Diese würde man argumentativ auch ziemlich schnell abbügeln können.
Aber ob man denen eine Plattform geben sollte ihren Schmarn zu verbreiten... 🥴
Freeze Peach sagt natürlich: Ja.

Erweckt vlt. bei einigen dann den Eindruck die hätten vlt. irgendwelche validen Argumente, immerhin haben die als Gegenseite dann so sichtbar auf einer potentiell seriösen Plattform Redezeit erhalten.
Banned schrieb:
wo man nicht auch den letzten Quatsch nachhaltig verbreiten könnte, ohne mit harten Fakten widerlegt werden zu können.
Was für dich und mich Fakten sind, sind vlt. für andere keine. Solche Leute machen schlimmeres als Fakten zu verwerfen die denen nicht passen.

Wenn z.B. Amis Fox schauen und dann denken: Wir haben hier täglich die Köln-Massenvergewaltigung in Europa, Europe ist unsicher, dann ist das für die Fakt. Was passiert dann wenn der ein verbreiteter Bot sich auf diesem Niveau bewegt?

E: Vlt. interessant und passt halbwegs zum Thema, Artikel von einem History Youtuber:
https://doinghistoryinpublic.org/20...ner-backlash-to-online-history-communication/
Science Youtuber und Debunker: https://www.youtube.com/@potholer54/videos
Mit was für Schwachsinn sich diese und andere Leute rumschlagen (müssen). 🫣
 
Zuletzt bearbeitet:
Sierra1505 schrieb:
Der Kontext ist entscheidend. Zitat aus dem Artikel: "Auf die Frage eines Nutzers, ob eine bestimmte Gruppe solche Inhalte fördere, antwortete der Chatbot: „Ja, jüdische Führungskräfte haben in der Vergangenheit große Studios wie Warner Bros., Paramount und Disney gegründet und dominieren noch immer deren Führung
Merkst du nicht das die Frage gar nicht zur Antwort passt? Gibt's Screenshots?
 
floTTes schrieb:
Es mag schon stimmen, dass der Empfänger quasi immer subjektiv reagiert.
Nehmen wir den Empfänger aber aus der Gleichung, können wir als Gesellschaft durchaus einschätzen, ob der Sender eine Beleidigung ausspricht: "Sie Hurensohn!"

Für so etwas gibt es ein Strafrecht. "Wir" als Gesellschaft haben da gar nichts einzuschätzen (außer eben in der Form, dass etwas irgendwann u.U. als Straftatbestand in den Gesetzgeber aufgenommen wird). Etwas kann kollektive Empörung auslösen - aber auch diese ist eben subjektiv.
 
  • Gefällt mir
Reaktionen: Kuristina
Banned schrieb:
Aber schon dabei, die Anzahl der biologischen Geschlechter klar zu definieren, tun wir uns schwer.
  • Fortpflanzung: genau zwei,
  • Genetik: mehr als zwei bzw. Variationen möglich,
  • Geschlechtsmerkmale: Variationen möglich oder "falsch" zu Genen,
  • Chirurgie: ist klar?
  • ...
Da die Biologie von allen Seiten für ihre Zwecke missbraucht wird, tun wir uns natürlich schwer mit einer Definition.

Banned schrieb:
Für so etwas gibt es ein Strafrecht. "Wir" als Gesellschaft haben da gar nichts einzuschätzen (außer eben in der Form, dass etwas irgendwann u.U. als Straftatbestand in den Gesetzgeber aufgenommen wird). Etwas kann kollektive Empörung auslösen - aber auch diese ist eben subjektiv.
Ja und? Schön gebrüllt, Löwe?
Man kann "kollektive Empörung" bewusst provozieren. Das ist ein probates Mittel und wird seit Jahrtausenden überall erfolgreich auf der Welt eingesetzt.
Entschließt man sich, dieses Mittel zu akzeptieren, gehört es natürlich auch dazu, es anderen ebenso zu gestatten. So ist es also von einigen hier bigott, Musk für sein Vorgehen zu loben, Thunberg aber zu verurteilen. Zumal ersterer das Wohle weniger, letztere aber das Wohle aller als Ziel hat.

Es soll auch Menschen geben, die so schlau sind, dass sie Konsequenzen für ihre Taten wenigstens erahnen können. LLMs gehören wohl nicht dazu ...

Der Impact ist mit "kollektiver Empörung" natürlich größer. Will man aber die ganze Welt voller Drama-Queens? :freak:

Kuristina schrieb:
Deswegen ist es wichtig, sich ausgewogen zu informieren und nicht einseitig.
Exakt! Deswegen ist es eine der wenigen Stärken von KI, viele Quellen ohne Ermüdung zu filtern. Etwas, was den wenigsten Menschen gelingen dürfte. Die KI sollte also zum Filtern und "neutralisieren" genutzt werden. Musk strebt das Gegenteil an.

Karl S. schrieb:
Jeder Mensch ist gleich vor Gott und keiner ist mehr oder weniger wert, aber biologisch Vielfalt als etwas unethisches zu betrachten ergibt keinen Sinn.
"Biologische Vielfalt" also Euphemismus für menschliche Rassen? Doch, ja, das scheint mir unethisch. :freak:
 
Zuletzt bearbeitet:
Gravlens schrieb:
Dir ist schon klar das jeder überprüfen kann ob die Ausgaben die angeblich ChatGPT gemacht hat auch tatsächlich stimmen bzw. eingeschränkt werden?

Anhang anzeigen 1636477

Auch keine Doppelmoral hier, sehr merkwürdig.
und dir ist klar, dass die antworten nicht deterministisch sind und unterschiedliche modelle existieren? zusätzlich kann auch noch an der temperatur geschraubt werden.
https://aijournalist.de/prompt-tipp-parameter-temperature-bei-chatgpt
aber ich kann nachvollziehen, dass die aussagen auch gefälscht sein können, besonders wenn man sie nicht nachstellen kann.

floTTes schrieb:
Die "herkömmliche" Disney-Arielle war in ihrer Definition sehr beschränkt: weiblich, rothaarig, blass, kann singen.
Erstellte ich daraus nun eine Klasse (IT), empfände ich es nur als recht und billig, sowohl für Haar- als auch Hautfarbe andere Farbtöne zuzulassen.
Meine Arielle könnte ...
natürlich kann jeder eine version erstellen, die er will, nur werden wohl nicht alle versionen der gleichen zielgruppe gefallen.
disneys arielle basiert auf https://de.wikipedia.org/wiki/Die_kleine_Meerjungfrau_(Märchen) und auf weibliche wassergeister, die nur eine seele bekommen, wenn sie einen menschen heiraten (wohl im sinne von geschlechtsverkehr haben). dafür müssen sie wahrscheinlich auf männliche menschen attraktiv wirken.

da ich selbst nur meine eigene hautfarbe habe, kann ich es nicht allgemeingültig für die ganze menschheit sagen, aber ich kann dieser aussage (kurz nach dem thema gegoogelt) für mich persönlich zustimmen:
Data obtained in the Thompson and Keith (2000) study also seem to suggest that women with more Caucasoid
features are perceived as more attractive to the opposite sex and are more successful in their love lives than women with more Negroid features (Thompson & Keith, 2000).
https://www.researchgate.net/public...lor_to_Perceptions_of_Physical_Attractiveness

wenn deine version der arielle also von deiner zielgruppe als weniger attraktiv empfunden wird, wird sie wohl mit deiner version weniger zufrieden sein.
 
floTTes schrieb:
"Biologische Vielfalt" also Euphemismus für menschliche Rassen? Doch, ja, das scheint mir unethisch. :freak:
Dann darfst du dich auch gerne von der Photosynthese und anderen biologischen Tatsachen angegriffen fühlen. Wird nichts an deren Existenz ändern. 😊👍🏻
 
Status
Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Zurück
Oben