News Künstliche Intelligenz: OpenAI und Anthropic prüfen ihre KI-Systeme gegenseitig

mischaef

Kassettenkind
Teammitglied
Registriert
Aug. 2012
Beiträge
7.099
  • Gefällt mir
Reaktionen: knoxxi und Asghan
Zuletzt bestimmt nach wie vor der Mensch* über richtig und falsch, unbedenklich und bedenklich, gut und böse - und versucht die KI in diese Richtung zu bewegen.

*Der Mensch sind wiederum nicht alle Menschen sondern diejenigen in den KI-Konzernen und -Räten. Was wiederum die Folgefrage aufwirft, ob dies nicht dazu führt, dass auch die KI nicht über pure Wahrheiten sondern eher über gemeinte Wahrheiten (=Ansichten) verfügen wird.
 
  • Gefällt mir
Reaktionen: Wallwatcher
Marflowah schrieb:
... ob dies nicht dazu führt, dass auch die KI nicht über pure Wahrheiten sondern eher über gemeinte Wahrheiten (=Ansichten) verfügen wird.
Die KI wird über veröffentlichte Meinungen verfügen.

Ob das Wahrheiten sind oder nicht, bleibt noch zu prüfen.
 
  • Gefällt mir
Reaktionen: Marflowah
Willst du damit etwa sagen das es Menschen mit mehr Macht und welche mit weniger gibt? 😱
Das muss ich mir gleich notieren ✍️

Sorry liest sich aber wie die Befürchtung einer schlimmen Veränderung.
Die wahre Veränderung wäre aber wenn es nicht mehr so wäre.

Natürlich ist es in der Demokratie schon mal anders als die Monarchie. Das sind aber beides so pauschale Begriffe die soviele Details "verstecken".... was ich sagen will wir haben heute wesentlich mehr Mitsprache Recht als früher, aber noch lange nicht genug. Ja wir könnten uns mit KI zurück bewegen wobei das dann aber an jeden einzelnen liegt. Und Macht und Freiheit hat heute auch jemand nur um so mehr Geld er hat. Ist nicht zwingend und schon garnicht linear gekoppelt aber die statistische Tendenz
 
  • Gefällt mir
Reaktionen: LamaMitHut
OpenAI: "Hey, Anthropic ist unsere KI sicher?"
Anthropic: "Ja, natürlich!"

Anthropic: "Hey, OpenAI ist unsere KI sicher?"
OpenAI: "Ja, natürlich!"

Selbstregulierung wird in dem Bereich einfach nicht klappen dafür brauch es Gesetze, die Bremsen aber den Fortschritt also wird das nichts bringen und ist mehr Schein als Sein.
 
  • Gefällt mir
Reaktionen: schneeland, knoxxi, oicfar und eine weitere Person
Gesetze werden schon noch kommen, daher ist es für die Unternehmen derzeit das Wichtigste, so invasiv und extrem wie möglich zu sein. Deshalb werden auch viele Dinge möglichst heimlich unternommen oder ohne Möglichkeit diese zu deaktivieren.

KI wird ja derzeit für alles getestet. Auch ohne Einwilligung! Hier das aktuelleste Beispiel von YouTube.
Und wer weiß, wie OpenAI und Anthropic ihre KIs testen? Woher kommen die Daten für deren Tests? Und haben die Nutzer bewusst ihre Einwilligung dazu gegeben? Nicht versteckt in irgendwelchen langen oder schwammig formulierten AGBs, welche praktisch ein Freifahrtschein für alles sind, sondern 100% willentlich?
 
Zuletzt bearbeitet:
Passend zum Thema eine gelungene Diskussion auf 3sat.

Björn Ommer ist Informatiker und Professor für KI-Systeme an der LMU München.
Anita Klingel ist Techniksoziologin mit dem Schwerpunkt auf KI-Governance.
Peter Henningsen ist psychosomatischer Mediziner und erforscht das Zusammenspiel von Körper und Psyche bei chronischen Symptomen.
https://www.3sat.de/wissen/nano-tal...ik-gesellschaft-das-wesen-der-ki-ntk-102.html

Nachdem ich diese Sendung schon gestern gesehen hatte, musste ich KI intensiver ausprobieren. DuckDuckgo bietet das ganz leicht an.
1756374155116.png

1756374206797.png



Und deswegen ist mir das gleich ins Auge gesprungen
ein übertriebenes Maß an Schmeichelei festgestellt worden.
ChatGPT 4 ist viel zu schmeichelthaft und vor allem ist dieses ICH von einer Maschine maximal deplatziert. Ich weiß nicht wie es anderen so geht, aber sicherlich bin ich nicht die einzige Person. Ich war ständig bemüht bei meiner Unterhaltung mit der Maschine, keine zwischenmenschlichen Gefühle aufkommen zu lassen. Wohl überlegend Sätze so zu formulieren, dass kein Gespräch Mensch zu Mensch aufkommen kann in mir.
Das ist wirklich gefährlich.
 
@Alesis
Das ist meiner Meinung nach großer Vorteil von KI.
Weil eben jeder anders ist, kann jeder für sich entscheiden, wie die KI antworten soll. Schmeichelhaft, sachlich, kurz, lang, etc.

Ich nutze schon lange vordefinierte Prompts, welche mit die Antworten explizit so kurz wie möglich, stichpunkartig und mit Quellenangeben liefern sollen. Auch Newsartikel lassen sich so auf die wesentlichen Punkte kürzen, sodass man in derselben Zeit mehr Artikel lesen (lassen) kann.
Dafür sind die KIs bereits sehr gut.

Laut diverser Artikel nutzen aber viele Menschen ihre KI aber als eine Art Berater oder Ratgeber zu buchstäblich allen Fragen, welche sie auch ihren Freunden, Eltern, Ärzten oder Anwälten stellen würden.
Das Gefährliche dabei ist meiner Meinung nach daher nicht, wie die KI antwortet, sondern ob diese auch sachlich richtig ist. Und die Meisten prüfen die Quellenangaben nicht mal!

Ich bin daher sehr gespannt, wie die Propaganda von morgen aussehen wird, weil die Informationen nicht mehr von wenigen voreingenommen News Seiten konsumiert werden, sondern von KIs, welche diese voreingenomen News Seiten weiter zensieren, Kontext entfernen oder umformulieren, sodass eine andere Aussage ensteht.
 
  • Gefällt mir
Reaktionen: gman32
Cool Master schrieb:
OpenAI: "Hey, Anthropic ist unsere KI sicher?"
Anthropic: "Ja, natürlich!"

Anthropic: "Hey, OpenAI ist unsere KI sicher?"
OpenAI: "Ja, natürlich!"

make my Day: KI belügt sich gegenseitig
 
Hochland Reiter schrieb:
Das ist meiner Meinung nach großer Vorteil von KI.
Ich denke eher, es ist ein Fehler von sich auf die Allgemeinheit zu schließen. Obendrein widersprichst du dir selber. Ich weiße auf die Gefahr hin, dass Menschen mit einer Maschine in eine zwischenmenschliche Situation fallen und hängen bleiben, während du es verneinst, aber gleichzeitig sagst, dass du Vorkehrungen getroffen hast beim Umgang mit KI.
Ich kann also nichts damit anfangen. Zumal, wenn man sich meinen Videovorschlag anschaut, meine Meinung nicht vom Himmel gefallen ist, sondern ein Tatsachenbericht ist.
 
Hochland Reiter schrieb:
Ich nutze schon lange vordefinierte Prompts, welche mit die Antworten explizit so kurz wie möglich, stichpunkartig und mit Quellenangeben liefern sollen.
So in der Art mache ich das auch. Sachlich, kurz und zeitsparend. Aber ich bin noch nie in die Lage gekommen, zwischenmenschliche Gefühle mit einer KI teilen zu wollen. Auch vor meinem Prompt nicht. Ich kann da schon zwischen Mensch und Maschine unterscheiden..
 
Das mit den vordefinierten Prompts ist nicht nötig. Ihr könnt die KI personalisieren in den Einstellungen und dort entsprechend die Art der Antworten anpassen. Da gibt es auch direkt Vorschläge.

Zum Rest: KI ist gekommen um zu bleiben. Man muss sich mit ihr auseinander setzen und lernen richtig mit ihr umzugehen. Wer sich davor verschließt wird abgehängt.

Ach und zum Thema "richtig oder nicht", das ist nicht nur ein Problem bei KI, sondern auch beim Menschen. Und dafür können wir oft nichtmal was. Es ist einfach die Frage wie unser Gehirn funktioniert. Falsche Informationen verbreiten sich auch ohne KI wunderbar.
 
  • Gefällt mir
Reaktionen: ###Zaunpfahl###, Hochland Reiter und Kuristina
Dark_Soul schrieb:
Ihr könnt die KI personalisieren in den Einstellungen und dort entsprechend die Art der Antworten anpassen.
Das meinte ich. Ist ein Systemprompt was ich da hab.
 
  • Gefällt mir
Reaktionen: Dark_Soul
Cool Master schrieb:
OpenAI: "Hey, Anthropic ist unsere KI sicher?"
Anthropic: "Ja, natürlich!"

Anthropic: "Hey, OpenAI ist unsere KI sicher?"
OpenAI: "Ja, natürlich!"

Selbstregulierung wird in dem Bereich einfach nicht klappen dafür brauch es Gesetze, die Bremsen aber den Fortschritt also wird das nichts bringen und ist mehr Schein als Sein.

Naja, bei den Tests haben die Firmen ja selbst ein Interesse daran Sicherheitslücken zu schließen. Daher ist das positiv. Und diese Lücken kann man auch nicht per Regulierung schließen.

Regulierung muss an anderer Stelle die Rahmenbedingungen setzen. Das war es aber dann auch.
 
Selbstregulierung passiert doch eh schon, im Sinne dass man das beste Modell schaffen möchte. Das ist nur leider nicht so einfach, daher sind externe Tests immer sehr zu begrüßen.
 
GPT-5 mini
Nein. ChatGPT kann Entwickler nicht selbst beauftragen oder Änderungen am System vornehmen.

Warum nicht — kurz:

  • ChatGPT hat keine Autonomie, keine Konten oder Kommunikationswege zu Entwicklerteams und keine Befugnis, Systeme zu ändern.
  • Es erzeugt nur Text als Antwort auf Eingaben; es kann Vorschläge formulieren, aber sie müssen von Menschen geprüft und umgesetzt werden.
  • Jede Änderung am Modellverhalten (z. B. Verbot von Ich-Formulierungen) erfordert Entwickler, Produktmanager oder Betreiber, die Code, Prompt-Design oder Moderationsregeln anpassen.
 
Das Thema scheint nicht so reizend zu sein.
Insofern eine kleine Geschichte beim Austausch mit ChatGPT 5.
Ich suche ein mobiles Telefon ohne Hardware für Internet, aber auch keine Tastatur mit Mehrfachbelegung. Über die Suchmaschine war die Suche nicht erfolgreich. Aber mit ChatGPT ist klargeworden, meine Vorstellung gibt es nicht.
Ich schreib dann, eigentlich nicht nötig, dass ich ein gängiges Smartphone kaufen muss und alles deaktivieren muss. Dann die Antwort von ChatGPT und ich musste echt lachen.

Verstanden — dann weiter kurz praktische Tipps, damit das Smartphone so „dumm“ wie möglich bleibt, sicher und zuverlässig für Telefon, SMS und Fotos. :D
 
Zurück
Oben