News Mistral 7B: Offenes KI-Modell kommt ohne ethische Grenzen

coffee4free

Redakteur
Teammitglied
Registriert
Okt. 2015
Beiträge
269
Ein französisches KI-Startup namens Mistral hat kürzlich sein erstes quelloffenes generatives Sprachmodell veröffentlicht. Dieses ist nicht nur kostenlos und frei verwendbar, sondern kommt zugleich ohne jegliche Moderationsmechanismen daher. Anwender können ihm sogar Anleitungen für kriminelle Aktivitäten entlocken.

Zur News: Mistral 7B: Offenes KI-Modell kommt ohne ethische Grenzen
 
  • Gefällt mir
Reaktionen: Mcmeider, aid0nex, nyster und 4 andere
Ferner seien offene Modelle die beste Möglichkeit, Fehlinformationen, deren Menge in den kommenden Jahren unweigerlich zunehmen werde, effizient zu erkennen.
Und wie? Das ganze ist ne Einladung mittels Mistral Content, mit dem Zweck der Fehlinformation, zu generieren.
Wie soll man damit denn Fehlinformationen überhaupt entgegentreten?
 
  • Gefällt mir
Reaktionen: R4fiqi, aid0nex, Faultier und 3 andere
Das ist jetzt nu wirklich nicht das erste LLM, bei dem die Grenzen aufgehoben wurden...
wobei ich zugegeben nicht sicher bin ob NSFW LLMs wie z.B. Wizard Vicuna auch eine Anleitung für eine Bombe ausspucken würden.

Von einem 7B Parameter Modell darf man aber auch nicht umbedingt hohe Genauigkeit erwarten, auf eine Anleitung davon würde ich mich nicht verlassen ohne die dreimal gecheckt zu haben.

edit: Wobei im Text auf deren Website etwas sehr interessantes steht:
Mistral 7B’s performance demonstrates what small models can do with enough conviction. Tracking the smallest models performing above 60% on MMLU is quite instructive: in two years, it went from Gopher (280B, DeepMind. 2021), to Chinchilla (70B, DeepMind, 2022), to Llama 2 (34B, Meta, July 2023), and to Mistral 7B.
 
  • Gefällt mir
Reaktionen: aid0nex, DeMischiMischi und Jan
Wenn es die Absicht war, ein 'unmoderiertes' LLM zu veröffentlichen, dann wäre es wichtig gewesen, dies von Anfang an ausdrücklich zu erwähnen“
Klar war es Absicht. Wie sonst auf sich aufmerksam machen?

Gruß Fred.
 
  • Gefällt mir
Reaktionen: flo.murr, aid0nex, Alkmachine und 2 andere
Die einen nennen es Moderation, andere Zensur.
Das ganze ist halt ein sehr schmaler Grat und auch regional gibt es höchst unterschiedliche Vorstellungen diesbezüglich (während hierzulande Gewaltdarstellung ein großes Problem ist, käme hier niemand auf die Idee sekundäre oder primäre Geschlechtsmerkmale einer antiken Statue zensieren zu müssen).
Gerade bei einem quelloffenen Projekt ist es mMn der richtige Schritt den vollen Sandkasten anzubieten. Und selbstverständlich gilt weiterhin: wer eine Bombenbauanleitung sucht, wird diese problemlos im Internet finden, auch wenn Sprach-KIs diese nicht herausgegeben dürfen.
 
  • Gefällt mir
Reaktionen: dennisis, piccolo85, Engaged und 18 andere
Fehlende "Moderation" sehe ich bei einem quelloffenen LLM, welches der interessierte Nutzer ja auch erstmal selbst zum Laufen bekommen muss, jetzt wirklich nicht als Problem an. Klar wollen Firmen wie Microsoft oder Google nicht, dass ihre Chatbots Anleitungen zum Bombenbau ausgeben. Aber sind wir doch mal ehrlich, wenn ich eine Anleitung zum Bombenbau will, frage ich auch nicht ChatGPT oder lade mir ein LLM runter, da gibt es ganz bestimmt andere Orte im (Dark-)Netz, die viel verlässlichere Anleitungen liefern.

Letztendlich läuft es auch wieder auf die gute alte Werkzeugdiskussion hinaus. Ich kann einen Hammer verwenden, um damit einen Nagel in meine Wand zu treiben, damit ich ein Bild aufhängen kann. Oder ich könnte damit jemandem den Schädel einschlagen. Ist der Hammer deswegen böse? Nein! Genau wie einen Hammer kann ich auch ein LLM für illegale Zwecke missbrauchen. Das ist dann aber nicht die Schuld des LLMs, sondern meine.
 
  • Gefällt mir
Reaktionen: tHe442, Darkblade08, aid0nex und 12 andere
lustig oder, zum einen wollen sie bombenbau oder andere aktivitäten verbieten aber zum anderen machen sie es auf ihre eigene "legale" art... und die menschen denken nur die russen könnten gehirnwäsche :)
 
Das wäre ja viel zu schön um wahr zu sein. Eine Ki die mir keine Moralapostel nach jeder zweiten Anfrage mitteilen will? Aber Online gibts sowas nicht oder?
 
  • Gefällt mir
Reaktionen: 1984, lmwplays und david.sp
duAffentier schrieb:
Wie kann man denn so eine KI zu Hause betreiben, brauch man da extra SW dazu?
Du brauchst eine aktuelle Grafikkarte mit ordentlich VRAM, abhängig von welchem Modell du arbeiten willst, das Modell selber und eine Oberfläche dafür wie z.B. oogabooga.

Hier ist ein Videotutorial welches zeigt wie man sowas installiert:
 
  • Gefällt mir
Reaktionen: nyster, Sherman789, Mr Peanutbutter und eine weitere Person
Kann man das bereits offline auf den pc nutzen bzw installieren?
Edit: hat sich erledigt, werde es vll mal ausprobieren.
 
cruscz schrieb:
Die einen nennen es Moderation, andere Zensur.

Anleitungen für Bombenbau ist eine Sache, aber wenn die KI nichtmal Witze erzählen will, dann ist das halt lächerlich. "Es könnte sich jemand dabei unwohl fühlen".
 
  • Gefällt mir
Reaktionen: Grummelbart, Mickey Cohen, lmwplays und 6 andere
Solche erst mal ja nur generischen Modelle sind doch im Normalfall auch nur Ausgangsbasis für dann nachträgliche Verfeinerung für die eigenen Zwecke.

Daher das doch super wenn die unzensiert sind.
 
cruscz schrieb:
Die einen nennen es Moderation, andere Zensur.
Das mit der Zensur ist aber auch ein einfach selten dämliches Möchtegern Totschlagargument.
Wenn sich eine Wertegemeinschaft auf Werte einigt und diese in einem juristischen Kontext fest gehalten sind, dann wäre prinzipiell alles Zensur was diese Wertegemeinschaft verabschiedet.
Tatsächlich ist es aber so, dass Freiheit ja nur auch dann entstehen kann, wenn mein eigenes Leben nicht bedroht ist und ich mit meiner Handlung keine andere Person und keine andere Person mich mit ihrer Handlung physisch, psychisch oder finanziell belasten kann.
Sprich Freiheit der Gemeinschaft kann sich auch nur in der Unfreiheit des Einzelnen entwickeln, in die Freiheit des anderen nicht einzugreifen.

Daher sollte KI und Wissenschaft immer den Anspruch haben ihre Forschung und ihre Entwicklung eben ethisch so zu planen, dass es keinen willkürlichen Eingriff in die Unversehrtheit geben kann.

Weil natürlich kann jeder an die Anleitung einer Bombe kommen, es ist aber ein Unterschied ob man jemanden mehrere Stunden suchen lässt oder diese Person einfach nur einen Satz eintippen muss.
Viele Menschen begehen keine schweren Verbrechen nicht, weil sie nicht den Impuls haben ihrer Wut freien Lauf zu lassen, sondern weil diese Art des Menschenleben zu nehmen bei den meisten Menschen eben so eine Herausforderung darstellt, das selbst mit einen Impulskontrollen Verlust dieser Drang geringer wird durch Zeit und generell Aufwand.

Es gibt natürlich Ausnahmen, vor allem wenn eine eigene persönliche Radikalisierung über Monate und Jahre statt findet und dazu psychische Komponenten kommen oder die Basis sind, diese lassen die Impulskontrolle generell fluktuieren.

In der Regel aber ist Zeit und Aufwand der größte „Killer“ von Gewalttaten.
Wenn du es Menschen also einfacher machst, dann wird immer mehr passieren.
Und für mich sind KI Entwickler dann auch Mittäter, vor allem wenn sie eben schlau genug sind eine KI zu entwickeln aber zu dumm sind diese KI an Werte zu binden.
 
  • Gefällt mir
Reaktionen: 00Zetti, KNarl, Strahltriebwerk und 12 andere
Messer bitte auch so planen dass die nicht schneiden können - es ist viel zu einfach Messer in Menschen reinstecken zu können.

Gesellschaften, die aus Angst immer mehr "Helikoptereltern" spielen sollten einfach das machen was tatsächlich sinnvoll ist - sich auflösen und Platz für bessere machen.

Auch bisher konnte jeder sich die Anleitung besorgen, der das wirklich wollte - und wer daran bisher gescheitert ist wird auch in Zukunft keine Bombe basteln können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Engaged, cubisticanus, Mickey Cohen und 9 andere
also die Spitze der Brotschneidemesser ist entsprechend abgerundet.
Sprengstoff stellt man doch eigentlich nur zum Zwecke einer Zerstörung her, ok manche wollen sich vielleicht auch nur ein paar Polenböller basteln, aber die sollten dann auch besser legitimiert sein.
Ebenso Giftmittelherstellung, natürlich kann man auch aus reiner Experimentierlust rumpanschen und Gegenstände in Säure auflösen lassen, positiven Nutzen hat es dann aber auch kaum.
 
Zuletzt bearbeitet:
Bei mir scheitert es leider an der 2070 und 8 GB. Würde ich mehr mit KI machen würde ich mir eine 4090 zulegen aber das lohnt sich aktuell für mich nicht.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Was ist Freiheit was ist Recht und woran oder warum fängt Einschränkung an?

Beispiel: Kernspaltung
Der wissenschaftliche Ansatz ein Atom zu spalten und die Resultate festzuhalten sind für sich genommen nicht verwerflich.
Was mache ich mit diesen Informationen?
Heißes Wasser oder Menschen töten?


Wie @HanneloreHorst schon in einigen Teilen beschrieben hat, gibt es Abmachungen die wir als Gesellschaft vereinbart haben. Gibt das jetzt für alle Gesellschaften?
Nur weil wir es für moralisch verwerflich halten eine KI unmoderiert zu verwenden bedeutet das leider nicht das andere evtl. auf Geschäftszwecken nicht anders sehen.

Ganz ehrlich, für mich ist es schwierig zu erfassen was KI für mich in der Zukunft bedeutet.

Was einmal gedacht wurde, kann nicht mehr zurückgenommen werden.
Friedrich Dürrenmatt
 
  • Gefällt mir
Reaktionen: KNarl, floTTes, mdPlusPlus und eine weitere Person
Zurück
Oben