News KI-Sprachmodell „LLaMA“: Meta präsentiert Konkurrent für ChatGPT und Google Bard

Andy

Tagträumer
Teammitglied
Registriert
Mai 2003
Beiträge
7.742
Einen dümmeren Namen gab es wohl nicht?!? Wer soll das vernünftig aussprechen? LmaA wäre wesentlich einfacher gewesen. ;)
 
  • Gefällt mir
Reaktionen: metoer, flo.murr, aid0nex und 12 andere
36F7CA1B-5D4A-4E84-AD7F-77E472E2303A.jpeg
 
  • Gefällt mir
Reaktionen: flo.murr, blu3leg3nd, aid0nex und 35 andere
LOL war ja klar... Denke nicht dass es ein Erfolg wird, FB hat zu viele negative Schlagzeilen produziert
 
  • Gefällt mir
Reaktionen: flo.murr und Benji18
Das Wort eignet sich als Abschlußtest im Anti- Stotter- Kurs. :mussweg:
 
  • Gefällt mir
Reaktionen: Benji18
Irgendwie interessant dass anscheinden alle selbstlernenden Ki's diskriminierende stereotype Vorurteile entwickeln. Den Zusammenhang wie es dazu kommt würde ich gern wissen.
 
Der Name passt doch. Die Firma spuckt doch so schon jedem Nutzer/Kunden ins Gesicht. :D
 
  • Gefällt mir
Reaktionen: Zockmock, M@tze, FLCL und 7 andere
Ganjafield schrieb:
Irgendwie interessant dass anscheinden alle selbstlernenden Ki's diskriminierende stereotype Vorurteile entwickeln. Den Zusammenhang wie es dazu kommt würde ich gern wissen.
Der steht im Artikel und wurde auch schon tausendmal genannt: Die Algorithmen lernen.
Lernen von Menschen. Menschen haben Vorurteile. Ende.

Das ist auch nicht sehr überraschend, denn bei selbstlernenden Biomaschinen können wir das auch beobachten. Menschenkinder übernehmen die Ansichten, Moral und Vorurteile derer von denen sie lernen.
 
  • Gefällt mir
Reaktionen: Askalon42, mdPlusPlus, EnErGy88 und 6 andere
Hiermit distanziere ich mich von diesem Projekt, trotz meines Nickname hab ich nichts damit zu tun!
 
  • Gefällt mir
Reaktionen: Askalon42, netzgestaltung, Simonsworld und 29 andere
Irgendwie muss ich bei dem Namen sofort an WInamp denken.

BTT
Ich kann das wort KI nicht mehr hören, für mich ist das ein vorgefertigter Algorhytmus. KI denkt und entwickelt sich alleine weiter ohne händisches zu tun.
So oder so, ich weiss bis heute nicht was ich von dem Thema halten soll. Ich selber sehe irgendwie keinen richtigen Sinn dahinter
 
  • Gefällt mir
Reaktionen: Schinken42
Ich denke es geht bei dem Namen nicht um das Tier, sondern eher um das spanische Wort llama (ausgesprochen „jama“) welches übersetzt in: rufen heißen nennen. Würde bei einem Sprachmodel Sinn machen.
 
  • Gefällt mir
Reaktionen: piepenkorn, DrSky, Andy und eine weitere Person
Bin schon mal auf die ersten Unterhaltungen zwischen ChatGPT und LLaMA gespannt.
 
  • Gefällt mir
Reaktionen: Simonsworld, Zockmock, piepenkorn und 3 andere
Meta kriegt es nicht einmal hin, dass ihre Apps vernünftig laufen, bin mal auf das KI-Sprachmodell gespannt:lol:
 
Schinken42 schrieb:
Der steht im Artikel und wurde auch schon tausendmal genannt: Die Algorithmen lernen.
Lernen von Menschen. Menschen haben Vorurteile. Ende.

Was aber immer gerne wegignoriert wird:
Wie entstehen Vorurteile oder Klischees?

Sobald Menschen aus/mit XYZ überdurchschnittlich ABC sind/haben, kommt direkt ein "Captain Obvious" um die Ecke und sagt, dass nicht alle so sind. Dann wird versucht, ein statistischer Wert fälschlicherweise glatt zu bügeln (50%), obwohl Fakten - aufgrund verschiedener Umstände - belegbar bleiben.

Damit dreht sich diese Diskussion immer im Kreis.

Es ist bereits lächerlich genug, dass harmlose Witze zensiert werden, wenn man eine KI danach fragt.
Wenn man aber allgemeine Witze hören möchte, kommen diese zensierten Witze trotzdem durch das System.

Am schlimmsten ist aber die einseitige Zensur von bspw. Männer/Frauen, Weiß/Schwarz, ReligionA/ReligionB, da dadurch erst echter Rassismus bzw. Diskriminierung entsteht.
Bei "uns" in Deutschland bzw. Europa ist alles noch größtenteils okay. Aber in den USA sieht man, wie extrem es ausarten kann.

Meiner Meinung nach sollte man KIs nicht zensieren, sondern in einer Differenzierung oder Aufklärung trainieren. Am besten mit Zahlen/Fakten, falls es welche gibt und der Begründung für die Enstehung dieser Zahlen/Fakten.
 
  • Gefällt mir
Reaktionen: konkretor, Gabber, mojitomay und eine weitere Person
Hatsune_Miku schrieb:
Irgendwie muss ich bei dem Namen sofort an WInamp denken.

BTT
Ich kann das wort KI nicht mehr hören, für mich ist das ein vorgefertigter Algorhytmus. KI denkt und entwickelt sich alleine weiter ohne händisches zu tun.
(...)
Aber damit das Marketing trotzdem von KI sprechen darf (obwohl Machine Learning gemeint ist) hat man das Wort KI ja extra aufgesplittet:
Jetzt gibt es "schwache KI", was einfach Algorithmen von heute sind, und "starke KI", was der ganze SciFi Kram ist von dem wir noch gut entfernt sind, was man sich immer unter KI vorgestellt hat und was auch Singularität genannt wird.

Übrigens weil sich Niemand eine Vorhersage zutraut, was danach passiert. Ähnlich wie bei einem Schwarzen Loch, welches eben Singularität genannt wird was hier übernommen wurde.
 
Highspeed Opi schrieb:
...
Wie entstehen Vorurteile oder Klischees?
...
Es ist bereits lächerlich genug, dass harmlose Witze zensiert werden, wenn man eine KI danach fragt.
...

Meiner Meinung nach sollte man KIs nicht zensieren, sondern in einer Differenzierung oder Aufklärung trainieren. Am besten mit Zahlen/Fakten, falls es welche gibt und der Begründung für die Enstehung dieser Zahlen/Fakten.
Na z.B. durch die Augen des Betrachters (Horizont, Tellerrand Filterblase,...). Was Du harmlos nennst, ist vielleicht für den anderen bereits verstörend. Eigene vs. Fremdwahrnehmung...
Ich kann auch über viele Witze von Minderheiten lachen, trotzdem habe ich die Chance über geeignete Sensoren zu erkennen, wann ein Witz unpassend ist. Genau da fehlts der AI vermutlich.
Mit gesundem Menschenverstand hat man also nicht all zu große Erwartungen an das Ergebnis, aber die allg. mediale Berichterstattung (spez. Newsgroups so auch CB ausgenommen) ist für den gesunden Menschenverstand auch nicht gemacht.

Aber ja, ich wünsche mir die auch so neutral wie möglich.
Aufklärung der Nutzer finde ich auch wichtig - aber mal ehrlich, da erwarte ich noch weniger als von dem dahinterliegenden Algorithmus. Die Geduld bringt doch keiner auf. Schon jetzt sind die meisten zu faul bei der Suchmaschine auf die zweite Seite zu scrollen. Da kann man nicht erwarten, dass sich jemand die Fußnoten durchliest oder die weiterführenden Links anklickt. Das ist doch das Ziel des Chatbots, oder?
 
  • Gefällt mir
Reaktionen: DieRenteEnte
Und genau da lieht der Hase im Pfeffer. Es ist unmöglich, dass jedefraus, jedermanns und jedesdivers Gefühle immer perfekt geschont werden. Es wird sich immer ein dude oder eine dudette finden, die mit 4 mal gegen einen Tisch gelaufen ist und deswegen sich in ihren tiefsten Gefühlen verletzt sieht, wenn man einen Witz über Tische macht.


Noch nie war die Gesellschaft (Twitter? Weil im RL erlebe ich recht wenig davon) so sensibel wie heute und noch nie war gleichzeitig die Resilienz des/der Einzelnen so niedrig.

aber alleine für die Aussage, wäre ich für viele Leute bereits verdammt weit rechts.
Wo ist die gesunde Mitte, zwischen Vernunft und Kultursensibilität. 😔
 
  • Gefällt mir
Reaktionen: heroesgaming, morb, Tr0nism und eine weitere Person
Wo will Meta das ganze denn nutzen um damit Gewinn zu generieren?
Man hat ja schon aktuell Probleme finanzieller Art dank Marks Hype-Train-Metaverse Wette.
Jetzt noch auf den Hypte-Train KI-Chat-Bot aufspringen, genau wie beim Metaverse ohne wirkliches Business-Modell? Ich weiß ja nicht, aber "smart" würde ich die Entscheidung nicht nennen...


Ansonsten finde ich die Diskussion hier etwas merkwürdig: ein jeder hier sollte sich einigermaßen mit dem Internet auskennen und dadurch ein gewisses Wissen darüber haben, wie stark hier Echo-Kammern sowie extreme Narrative, inklusive Schurbel Bla-Bla herrschen. Ein Mensch der nun nicht ein Gläubiger einer dieser Echo-Kammern ist, der kann am Ende oft (aber nicht immer, das Abrutschen in Schurbel Bla-Bla passiert nämlich oft schliechend...) sehen, dass es sich um Bullshi* handelt, ein Sprachmodell wie hier kann es aber nicht. Und somit fehlt ihr eben auch die Unterscheidung zwischen "Das ist ein harmloser, stereotypischer Witz" und "das ist ausgewachsener Bullshi* Rassismus". Wichtig hierbei: Kontext. Versuch mal einer KI beizubringen, dass selbstreferenzielle Witze eines Chappelle nicht das selbe sind wie wen Herman Jedermann Ü60, AFD Wähler sowas in einer öffentlichen Chat-Gruppe mit seinen Ü60 Freunden äußert.

Und auf die Frage die hier wer gestellt hat, wo der ganze Mist herkommt: Anonymität und Distanz (physisch und emotional). Selbst ein 1A White-Power Dude würde einem nicht weißen in einem 1-zu-1 Gespräch eher selten ins Gesicht seine kruden Thesen äußern. Im Internet aber hat er keine Konequenzen zu befürchten weil Annonym und eine physische aber auch emotionale Distanz zu den Gruppen besteht, die er durch seinen Bullshi* angreift. Ergo verstärkt diese Distanz die Neigungen weiter.

Von daher ist in der Wissenschaft ja schon lange bei der Analyse von Texten Online in großem Rahmen bekannt, dass es dort massiv zu einem/mehreren "Bias" kommt und man dagegen vorgehen muss, wenn man ein einigermaßen realistisches und zuverlässiges Ergebniss erhalten möchte. Firmen wie OpenAI, Meta, Google & Co. müssten das halt ebenfalls für ihre Sprachmodelle machen, sonst ist das Ergebnis einfach nicht brauchbar.
 
Zurück
Oben