Bericht Analyse: Microsofts Tay-Bot und der Hass im Netz

War ja klar dass dort die Trolle in Regimentsdimensionen aufschlagen werden.

Aber das Experiment finde ich trotzdem interessant. Aber an der Diskussion finde ich interessant dass solchen Bots oder auch KIs immer wieder menschliche Moralvorstellungen unterstellt werden. Ein Bot hat weder Moral noch Gewissen. Er handelt in der Regel nach "Gedankengängen" die, zumindest stellenweise, wir nicht wirklich verstehen können. Fefe hat dazu erst vor kurzem was passendes geschrieben.
 
90000 Tweets am ersten Tag? Was soll das überhaupt, ein Tag hat gerade mal 86400 Sekunden. Da kann man sich nur noch an den Kopf packen.

Interessant bleibt das "Projekt" trotzdem allemal, und wenn die KI jetzt noch gekoppelt wird an die Roboter von Boston Dynamics, dann ist T-1000 nicht mehr weit :o
 
Danke für den Artikel, über Tay wurde hier sowieso noch nichts berichtet (scheint mir) und vor allem Interessanter Artikel in Bezug auf die Frage Meinungsfreiheit.

Das Desaster mit Tay war irgendwie klar, dass da irgendwelche Komiker die KI kapern, war aber erstaunlich stark und schnell passiert.
 
Am Donnerstag bereits drüber gelesen.

Ich finde das Experiment durchaus interessant.

Es ist aber eben auch bei sehr vielen Menschen so, dass sie sich leider nicht selbst eine eigene Meinung bilden, sondern relativ unreflektiert die Meinung und Ansichten ihres direkten Umfeldes (Familie, soziales Umfeld oder auch Religion usw.) als allgemeingültige Wahrheit annehmen, ohne dies ausreichend zu hinterfragen.
Es wird einfach die Meinung als Wahrheit akzeptiert, die die Mehrheitsmeinung des Umfeldes darstellt.

Ich wundere mich allerdings darüber, wie naiv Microsoft angenommen hat, dieses würde Tay nicht passieren :D

Insgesamt eine gute Warnung zum Thema KI
 
Das Ganze hat mit Hass genau gar nichts zu tun.
Tay ist eine ziemlich dumme KI, deren Funktionsweise bereits bekannt war, und somit ein gefundenes Fressen für Trolle.
 
Wer hätte gedacht, dass Skynet als Teenage-Robo-Hitler beginnt?

Darf man darüber überhaupt politisch korrekt lachen :D
 
Wahrscheinlich war diese Version die Menschlichste, alles was danach kommt wird wieder mehr Roboter sein.

Immerhin hatten alle Spaß mit Microsoft dem Chaotenladen.
 
Schon irre, was da passiert ist.
Schöner letzer Absatz. Bin echt gespannt wie das weitergeht... vermutlich weniger gut für die Menschen. *hust*IRobot*hust* (oder jede andere "Roboter/Computer sind schlauer als Menschen und wollen sich dieser entledigen"-Distopie) :D

Wobei wir wahrscheinlich mehr auf so eine Dystopie zusteuern als uns lieb ist..
 
Man sollte Tay zu einer Troll-KI umbauen.
Vielleicht trollen sich dann demnächst mehrere KIs gegenseitig.

Ich habe mir gerade tatsächlich mal eine Zusammenstellung der Tweets angeschaut und bin vor Lachen fast vom Stuhl geflogen.
 
Zuletzt bearbeitet:
Ich fand die Aktion gut. Es war sozusagen ein soziales Experiment was gezeigt hat, dass in der heutigen Zeit Meinungsfreiheit und (schwarzer) Humor unerwünscht sind und jeder sich irgendwie in irgendeiner form direkt beleidigt und diskriminiert fühlt. :D
 
Macht doch nicht so eine Kontroverse daraus, es fehlt uns bloß noch dass man sich über rassistische Kommentare einer dummen KI beschwert.
Wenn wir schon soweit sind, dann haben wir auch nichts besseres verdient.
 
Tatsächlichen Fremdenhass bitte von den Memes aus dem Umfeld aller *chans abgrenzen. Ein Bruchteil derjenigen, die Tay die typischen 9/11-, Hitler-, Mexikaner- und Judensprüche haben zukommen lassen, steht tatsächlich mit eigener Überzeugung dahinter. Dem größeren Teil geht es darum, bewußt zu provozieren und vorhersehbare Reaktionen auszulösen („Oh Gott, über den Holocaust darf man keine Wtze machen.“). Exakt so, wie das bei unzähligen Onlineabstimmungen bisher der Fall war, von denen ein *chan Wind bekommen hat.

Oder sich mal Imageboardkultur im Allgemeinen zu Gemüte führen. „Das Trollparadies“ aus der c’t ist ein ganz guter Enstieg, danach tagelang in der Encyclopædia Dramatica lesen oder am besten in freier Wildbahn lurken.
 
Zuletzt bearbeitet:
So unterhaltsam ich das Experiment auch finde, zeigt es in meinen Augen weniger, wieviel Entwicklungsbedarf es bei KI noch gibt, sondern wieviel bei (NI? natürlicher Intelligenz) noch an Luft nach oben ist ;-)
 
alter schwede.....:D
Jaja. KI is so ne sache für sich ...

aleqx schrieb:
Wer hätte gedacht, dass Skynet als Teenage-Robo-Hitler beginnt?

Aber echt ^^
 
Zuletzt bearbeitet:
Ich empfinde das ganze weniger als Disaster sondern eher hoch interessant was die Weiterentwicklung der ganzen "KI" angeht.

immerhin muss man Berücksichtigen, dass diese "Ki" weder eigene Meinung, Moralvorstellung noch ein Gewissen hat.
 
@sasha87
Diese "KI" ist leider keine KI, sondern nur ein ziemlich billiger Chat-Bot.
 
Tay braucht halt wie jedes menschliche Wesen eine Basis an Überzeugungen und Werten. Wenn man ne KI programmiert und sie aufs Internet losläst (oder umgekehrt?!?), dann muss man sie vorher zumindest auf das Level eines 10-jährigen bringen der ein gewisses Maß an Erziehung genossen hat. Ein leerer Container kann nur 1:1 das wiedergeben was man hineintut. Das hat mit Intelligenz nicht viel zu tun.

Was würde wohl dabei rauskommen wenn man einen 10-jährigen mit 0 Erziehung und vorherige Wertevermittlung (also quasi eine leere Hülle, bis auf den Instinkt) an einen Computer mit Twitter setzt? Wahrscheinlich ein Minihitler.
 
Ich finds witzig :D

Aber ich denke eher da haben sich viele einen Spaß erlaubt, als wirklich die Absicht zu haben, derartige Propaganda zu verbreiten. Es lässt sich doch keiner von sowas irgendwie politisch beeinflussen, aber witzig ist die Sache an sich alle mal.

Ob Filter zum Ziel führen bezweifle ich. Wenn man den KI beibringt, bestimmte Wörter einfach zu ignorieren, wird es nie mals auch nur im Ansatz ein menschlich wirkendes Wesen sein. Der Mensch bekommt sein Wissen ja auch nicht gefiltert, jedoch ist dieser irgendwann in der Lage, zwischen Sinn und Unsinn zu unterschieden. Das muss man programmieren. Aber das geht kaum, ohne seine eigene Meinung da rein fließen zu lassen. Also auch mist.
 
Ich finde daraus können viele lernen. Es ist sehr komplex eine KI zu erschaffen die genau so denkt und handelt wie ein Mensch. Bis das 100% funktioniert, kommt der Hoverboard noch :)
 
Zurück
Oben