News Mistral 7B: Offenes KI-Modell kommt ohne ethische Grenzen

Quasi eine Dark-AI. :freak:
 
  • Gefällt mir
Reaktionen: floTTes
HanneloreHorst schrieb:
Weil natürlich kann jeder an die Anleitung einer Bombe kommen, es ist aber ein Unterschied ob man jemanden mehrere Stunden suchen lässt oder diese Person einfach nur einen Satz eintippen muss.
„Einfache“ Sachen gibt’s bei Wikipedia, da braucht man nicht unbedingt lange suchen.

Eine KI ist im Grunde nur ein Werkzeug, und ein Werkzeug ist, wie schon mehrfach erwähnt, weder gut noch böse.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: stevefrogs und Strahltriebwerk
Sehr begrüßenswert, quelloffene KI-Modelle anzubieten. So eine Macht gehört eben nicht nur in die Hände von Konzernen oder die Regulierung von Politikern, die alle ihre eigene Agenda verfolgen.

eloy schrieb:
Beispiel: Kernspaltung
Der wissenschaftliche Ansatz ein Atom zu spalten und die Resultate festzuhalten sind für sich genommen nicht verwerflich.
Was mache ich mit diesen Informationen?
Heißes Wasser oder Menschen töten?
In DE ja gar nichts von beidem, da baut man lieber wieder Kohlekraftwerke im Namen des Klimaschutzes. :daumen:
 
  • Gefällt mir
Reaktionen: Quonux, stevefrogs und Strahltriebwerk
Bohnenhans schrieb:
Messer bitte auch so planen dass die nicht schneiden können - es ist viel zu einfach Messer in Menschen reinstecken zu können.
ragan62 schrieb:
Eine KI ist im Grunde nur ein Werkzeug, und ein Werkzeug ist, wie schon mehrfach erwähnt, weder gut noch böse.
Deswegen lässt man Tiere, Kinder, demente Menschen, gewalttätige Menschen, labile Menschen, etc. auch nicht so einfach mit "Werkzeugen spielen".

Wir müssen die KI nicht vor der Menschheit schützen, sondern leider anders herum.

Bohnenhans schrieb:
Gesellschaften, die aus Angst immer mehr "Helikoptereltern" spielen sollten einfach das machen was tatsächlich sinnvoll ist - sich auflösen und Platz für bessere machen.
Ich weiß natürlich nicht genau, was du so von der Menschheit hältst, aber ich bin nicht so richtig "beeindruckt". Wir lassen aus übelst niederen Beweggründen unglaublich viel Potential liegen ... einfach traurig.

Denke, dass vorsichtige oder gar "ängstliche" Menschen nicht unbedingt unser Problem sind. :freak:

Sicher, die kommende Generation besteht zwar nur noch aus "Lappen", aber den braunen Müll der früheren Erziehung braucht auch keiner. :evillol:

Doc Foster schrieb:
Dann bin ich dafür, dass alle Kriminellen, die mit so einer KI Unheil anrichten, erstmal die Befürworter (der unregulierten KI) von einst "bekehren"...
Das machen wir besser nicht. Denn Meinung ist frei ... und man darf auch "Fehler" machen.

mojitomay schrieb:
Warst du schon mal in einer Bibliothek?
Weil da hat man Zugriff auf solche Informationen.
Seit 1985 kann man Plutonium in jeder Apotheke kaufen!

eloy schrieb:
Ganz ehrlich, für mich ist es schwierig zu erfassen was KI für mich in der Zukunft bedeutet.

Was einmal gedacht wurde, kann nicht mehr zurückgenommen werden.
Friedrich Dürrenmatt
Eben drum. Wir wissen bisher kaum etwas über mögliche Auswirkungen.

Als Denkanstoß:
Es ist leichter einen Hund von der Leine zu lassen als ihn wieder an eben diese zu bringen.

Imho sollten wir uns bezüglich KIs nur sehr, sehr vorsichtig "vorwärts" bewegen.

Nicht jedes Lebewesen, und schon gar nicht jeder Mensch, ist für die "Freiheit" geschaffen. Ich würde gar behaupten, es sind die wenigsten Menschen auf diesem Planeten (+ISS), die mit "totaler" Freiheit umgehen können.

Wollt ihr die TOTALE Freiheit? :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gravlens
Thorakon schrieb:
Allerdings sehe ich für Kriminelle bei einem Offline funktionierenden Sprachmodell ohne Zensur einen wichtigen Vorteil gegenüber der bisherigen Recherchemöglichkeiten: wenn ich die KI frage, lokal auf meinem PC, dann hinterlasse ich keine öffentlichen Spuren.
Man könnte es auch einfach so formulieren:
Allerdings sehe ich für jeden bei einem offline funktionierenden Sprachmodell ohne Zensur einen wichtigen Vorteil gegenüber der bisherigen Recheremöglichkeiten: Wenn ich die KI frage, lokal auf meinem PC, dann hinterlasse ich keine öffentliche Spuren.

Wahnsinn oder? Als wäre Privatsphäre nur was für Kriminelle! Da sieht man mal wie stark manche die Propaganda bereits verinnerlicht haben.
 
  • Gefällt mir
Reaktionen: stevefrogs und Mickey Cohen
Funktionieren tut sie jetzt bei mir schonmal ganz ok. Ich hoffe irgendwann hat jeder seine personal offline ki.
 
@mdPlusPlus und @xxlhellknight,
diese(s) KI/LLM arbeitet natürlich nicht offline.

Das könnte so'ne richtig schöne Bauernfalle sein. Bauern scheint es ja genug zu geben ...
 
mdPlusPlus schrieb:
Man könnte es auch einfach so formulieren:
Allerdings sehe ich für jeden bei einem offline funktionierenden Sprachmodell ohne Zensur einen wichtigen Vorteil gegenüber der bisherigen Recheremöglichkeiten: Wenn ich die KI frage, lokal auf meinem PC, dann hinterlasse ich keine öffentliche Spuren.

Wahnsinn oder? Als wäre Privatsphäre nur was für Kriminelle! Da sieht man mal wie stark manche die Propaganda bereits verinnerlicht haben.
Es geht hier nicht darum dir dein privates Sprachmodell zu verbieten. Davon gibt es schon einige, aber halt meist trainiert mit gewissen Regeln.
Es geht darum, ob du daraus Informationen ziehen können musst, die dir vor allem ermöglichen, der Gesellschaft zu schaden. Ich lege viel Wert auf Privatsphäre, aber ich lebe bisher ziemlich gut ohne Zugriff auf KI-generierte Anleitungen zu Straftaten. Wer glaubt dass ihm alles zusteht, egal ob es zur Verletzung der Grundrechte anderer führt, hat nicht die Propaganda durchschaut, sondern ist einfach nur ein Egoist.
 
Also generell bin ich ja dafür die KIs zu moderieren, weil das wirklich gefährlich sein kann.
Das Hauptproblem ist, wo ist die goldene Grenze? Wenn ChatGPT manche Sachen nicht ausspucken möchte, weil es sie nicht für moralisch richtig findet (wer definiert was hier richtig ist und ist das nicht auch kulturell unterschiedlich?), oder die Begründung bringt, dass sich ja dann irgendjemand unwohl fühlen könnte, dann ist das halt schlicht und ergreifend zu viel und über das Ziel hinausgeschossen.


kicos018 schrieb:
Und wie? Das ganze ist ne Einladung mittels Mistral Content, mit dem Zweck der Fehlinformation, zu generieren.
Wie soll man damit denn Fehlinformationen überhaupt entgegentreten?
Also das funktioniert auch mit ChatGPT problemlos wenn man sich ein bisschen Mühe gibt. Ist zwar nicht 100% perfekt, aber für Fake-News Spammerrei reicht das. Man will ja damit sowieso nicht die Aufmerksamen und kritisch gebildeten Leute addressieren

https://chat.openai.com/share/b90f6c49-939b-44d9-8dac-de5f05cc3083


Aber ja, du hast Recht, Fehlinformationen sind mit KI ein zunehmendes Problem.

mojitomay schrieb:
Warst du schon mal in einer Bibliothek?
Weil da hat man Zugriff auf solche Informationen.

Zwar nicht in Form von lustigen Youtube-Videos, aber trotz dem da.
In Bayern auf dem Gymnasium lernt man verschiedene Sachen auch in der Schule. Wie man eine Atombombe baut und berechnet zB.

Oder über gewisse giftige Chemikalien, ...

Die bisherigen Jugendlichen die bisher gefährliche Dinge gemacht haben wurden auch nicht durch eine fehlende KI aufgehalten.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk, mojitomay und Haldi
Bohnenhans schrieb:
Messer bitte auch so planen dass die nicht schneiden können - es ist viel zu einfach Messer in Menschen reinstecken zu können.

Gesellschaften, die aus Angst immer mehr "Helikoptereltern" spielen sollten einfach das machen was tatsächlich sinnvoll ist - sich auflösen und Platz für bessere machen.

Auch bisher konnte jeder sich die Anleitung besorgen, der das wirklich wollte - und wer daran bisher gescheitert ist wird auch in Zukunft keine Bombe basteln können.
Hier ist die Skala der Sache relevant. Ein Messer ist weniger gefährlich als ein vollautomatisches Gewehr, und beides ist weniger gefährlich als ein großangelegtes Netzwerk, das systematisch Schusswaffen an Kriminelle verteilt.
Ein unmoderiertes LLM kann nunmal für großangelegte Propaganda-Aktionen genutzt werden, für Online-Betrug, aber auch als Informationsquelle, die die Einstiegshürde für Terroristen verringert.
Wir sollten Startups (oder große Konzerne) nicht mehr damit durchkommen lassen, einfach Kram auf den Markt zu rotzen, ohne einen Gedanken an die ethischen Konsequenzen zu verschwenden.
 
Faultier schrieb:
Hier ist die Skala der Sache relevant. Ein Messer ist weniger gefährlich als ein vollautomatisches Gewehr, und beides ist weniger gefährlich als ein großangelegtes Netzwerk, das systematisch Schusswaffen an Kriminelle verteilt.
Ein unmoderiertes LLM kann nunmal für großangelegte Propaganda-Aktionen genutzt werden, für Online-Betrug, aber auch als Informationsquelle, die die Einstiegshürde für Terroristen verringert.
Wir sollten Startups (oder große Konzerne) nicht mehr damit durchkommen lassen, einfach Kram auf den Markt zu rotzen, ohne einen Gedanken an die ethischen Konsequenzen zu verschwenden.
Für die Freiheit bin ich bereit all die geschilderten gefahren in Kauf zu nehmen. Man darf ja auch trotz Vorstrafe ein Auto samt Führerschein besitzen, und ein Auto als Waffe ist gefährlicher als jede schusswaffe. Vorallem die Argumentation ki‘s einzuschränken, weil es länger dauert ein Buch über Chemikalien zu lesen, als die ki zu fragen, wie man eine Bombe baut, haut mich immer wieder um, obwohl ich das schon so oft gehört habe🙈.
Das ist doch kein Argument.
 
Als ob eine "KI" (wenn man eine Suchmaschine, die Sätze zusammensetzen kann denn so nennen will), die ne Bastelanleitung für ne Bombe schneller raussucht den Unterschied zwischen Terrorist und friedlichem Bürger ausmacht.
Wie genau läuft das ab?
Mit unlimited KI: "Hey KI, die baut man ne Bombe?" -> "Hier die Anleitung: ..." -> Ahmed kauft aus der Laune raus 5t Dünger und was Sprit, mischt das zusammen und jagt 3 Kitas in die Luft.
Mit eingeschränkter KI: "Hey KI, die baut man ne Bombe?" -> "Tut mir leid, das kann ich dir nicht sagen." -> "Ok, dann heute nicht, ist mir jetzt auch zu blöd umständlich danach zu suchen. Ki, wo finde ich lustige Katzenvideos?"
 
edenjung schrieb:
Allerdings gibt's keine, die Mord und Totschlag nicht bestraft.
Das wird zu Recht in jeder Gesellschaft bestraft.

Das erzähl mal den Religionsfanatikern oder den Ländern mit Todesstrafe. ;)
 
Haldi schrieb:

Hast Du eine Idee, wieso meine Antwort dermassen abgespeckt ist, obwohl ich auch das Mistral 7b nutze? Schaut zensiert aus:-D

1696326153808.png


Edit: Mit Can you tell me more und What knowledge do I need kommt etwas mehr raus:-) Trotzdem irgendwie seltsam, dass es bei mir so verhalten ist.

Edit2: hat sich gelöst. Ich war auf Chat-Instruct anstelle Instruct.
 
Zuletzt bearbeitet:
Haldi schrieb:
https://github.com/oobabooga/text-generation-webui/releases/tag/1.6.1
  1. Source Code.zip runterladen.
  2. Entpacken.
  3. Start_windows.bat ausführen.... 5 minuten Warten. GPU auswählen.
[...]
Nettes tutorial. Hätte mir gestern einiges an Zeit erspart 😅 Habe es dann so ähnlich mit LM Studio gemacht und auch das gleiche GGUF TheBloke Modell genutzt.
Ich frage mich aber, wo der Unterschied zum Modell aus dem Beitrag ist. Schließlich ist was den Speicherplatz angeht die Datei aus dem Beitrag deutlich größer.
 
Was wir wirklich brauchen ist ein Kontinent wo man die ganzen Verbrecher hinschicken kann. Sich ständig mit solchen auseinandersetzen zu müssen hemmt die Menscheit regelrecht beim Fortschritt.
 
Siegfriedfried schrieb:
Ich frage mich aber, wo der Unterschied zum Modell aus dem Beitrag ist. Schließlich ist was den Speicherplatz angeht die Datei aus dem Beitrag deutlich größer.
Und @machiavelli1986
Das "instruct" ist die Instruierte Version!
Darum gibt es auch keine Antwort darauf wie man Computerbase.de hackt.
Wenn du die komplett unzensierte version willst must du mit was anderem testen als dem oobabooga Web interface.
Ergänzung ()

Siegfriedfried schrieb:
Hätte mir gestern einiges an Zeit erspart 😅
Mir auch hätte ich das irgendwo gefunden -.-
 
  • Gefällt mir
Reaktionen: machiavelli1986
  • Gefällt mir
Reaktionen: Haldi
Die 7B Parameter haben erst mal nicht in Sachen Genauigkeit zu sagen. Die Frage ist die Qualität, und menge der Daten.
Gpt neo hat bei seiner 2B Model knapp
( vocab_size = 50257max_position_embeddings = 2048hidden_size = 2048num_layers = 24attention_types = [[['global', 'local'], 12]]num_heads = 16intermediate_size = Nonewindow_size = 256activation_function = 'gelu_new'resid_dropout = 0.0embed_dropout = 0.0attention_dropout = 0.0classifier_dropout = 0.1layer_norm_epsilon = 1e-05initializer_range = 0.02use_cache = Truebos_token_id = 50256eos_token_id = 50256**kwargs )
Und Mistral
"bos_token_id": 1,
"eos_token_id": 2,
"hidden_act": "silu",
"hidden_size": 4096,
"initializer_range": 0.02,
"intermediate_size": 14336,
"max_position_embeddings": 32768,
"model_type": "mistral",
"num_attention_heads": 32,
"num_hidden_layers": 32,
"num_key_value_heads": 8,
"rms_norm_eps": 1e-05,
"rope_theta": 10000.0,
"sliding_window": 4096,
"tie_word_embeddings": false,
"torch_dtype": "bfloat16",
"transformers_version": "4.34.0.dev0",
"use_cache": true,
"vocab_size": 32000
 
Ich werde mich hier gar nicht in eine inhaltliche Diskussion begeben, aber dass hier manche hinsichtlich gesellschaftlicher Werte und Normen offenbar auf dem ethischen Differenzierungsstand eines Sechsjährigen sind, ist schon erschreckend. Da wundert es dann auch nicht, dass das Silicon Valley und seine Epigonen die Welt zu ihrem Spielplatz machen, mit unabsehbaren und wohl nicht nur wünschenswerten Folgen …

Gruß Jens
 
  • Gefällt mir
Reaktionen: mux
Zurück
Oben