Bericht Analyse: Microsofts Tay-Bot und der Hass im Netz

Andy

Tagträumer
Teammitglied
Dabei seit
Mai 2003
Beiträge
7.108
Microsofts maschinell lernende Twitter-KI Tay eskalierte binnen 24 Stunden vom Hipster zu Hitler. Es ist ein Lehrstück über all die Probleme, die die großen Internetdienste im Umgang mit dem Hass im Netz haben.

Zum Bericht: Analyse: Microsofts Tay-Bot und der Hass im Netz
 

Creeed

Captain
Dabei seit
Sep. 2002
Beiträge
3.428
War ja klar dass dort die Trolle in Regimentsdimensionen aufschlagen werden.

Aber das Experiment finde ich trotzdem interessant. Aber an der Diskussion finde ich interessant dass solchen Bots oder auch KIs immer wieder menschliche Moralvorstellungen unterstellt werden. Ein Bot hat weder Moral noch Gewissen. Er handelt in der Regel nach "Gedankengängen" die, zumindest stellenweise, wir nicht wirklich verstehen können. Fefe hat dazu erst vor kurzem was passendes geschrieben.
 

HardRockDude

Commander
Dabei seit
Juli 2009
Beiträge
2.147
90000 Tweets am ersten Tag? Was soll das überhaupt, ein Tag hat gerade mal 86400 Sekunden. Da kann man sich nur noch an den Kopf packen.

Interessant bleibt das "Projekt" trotzdem allemal, und wenn die KI jetzt noch gekoppelt wird an die Roboter von Boston Dynamics, dann ist T-1000 nicht mehr weit :o
 

SOWJETBÄR

Cadet 4th Year
Dabei seit
Aug. 2015
Beiträge
96
Danke für den Artikel, über Tay wurde hier sowieso noch nichts berichtet (scheint mir) und vor allem Interessanter Artikel in Bezug auf die Frage Meinungsfreiheit.

Das Desaster mit Tay war irgendwie klar, dass da irgendwelche Komiker die KI kapern, war aber erstaunlich stark und schnell passiert.
 

hamju63

Admiral
Dabei seit
Aug. 2008
Beiträge
7.221
Am Donnerstag bereits drüber gelesen.

Ich finde das Experiment durchaus interessant.

Es ist aber eben auch bei sehr vielen Menschen so, dass sie sich leider nicht selbst eine eigene Meinung bilden, sondern relativ unreflektiert die Meinung und Ansichten ihres direkten Umfeldes (Familie, soziales Umfeld oder auch Religion usw.) als allgemeingültige Wahrheit annehmen, ohne dies ausreichend zu hinterfragen.
Es wird einfach die Meinung als Wahrheit akzeptiert, die die Mehrheitsmeinung des Umfeldes darstellt.

Ich wundere mich allerdings darüber, wie naiv Microsoft angenommen hat, dieses würde Tay nicht passieren :D

Insgesamt eine gute Warnung zum Thema KI
 

UltraWurst

Banned
Dabei seit
Aug. 2014
Beiträge
2.269
Das Ganze hat mit Hass genau gar nichts zu tun.
Tay ist eine ziemlich dumme KI, deren Funktionsweise bereits bekannt war, und somit ein gefundenes Fressen für Trolle.
 

aleqx

Lt. Junior Grade
Dabei seit
Okt. 2013
Beiträge
257
Wer hätte gedacht, dass Skynet als Teenage-Robo-Hitler beginnt?

Darf man darüber überhaupt politisch korrekt lachen :D
 

Fujiyama

Captain
Dabei seit
Juli 2015
Beiträge
3.839
Wahrscheinlich war diese Version die Menschlichste, alles was danach kommt wird wieder mehr Roboter sein.

Immerhin hatten alle Spaß mit Microsoft dem Chaotenladen.
 

pcBauer

Lieutenant
Dabei seit
Feb. 2007
Beiträge
895
Schon irre, was da passiert ist.
Schöner letzer Absatz. Bin echt gespannt wie das weitergeht... vermutlich weniger gut für die Menschen. *hust*IRobot*hust* (oder jede andere "Roboter/Computer sind schlauer als Menschen und wollen sich dieser entledigen"-Distopie) :D

Wobei wir wahrscheinlich mehr auf so eine Dystopie zusteuern als uns lieb ist..
 

KlaasKersting

Lt. Commander
Dabei seit
Okt. 2015
Beiträge
1.811
Man sollte Tay zu einer Troll-KI umbauen.
Vielleicht trollen sich dann demnächst mehrere KIs gegenseitig.

Ich habe mir gerade tatsächlich mal eine Zusammenstellung der Tweets angeschaut und bin vor Lachen fast vom Stuhl geflogen.
 
Zuletzt bearbeitet:
T

Trasty

Gast
Ich fand die Aktion gut. Es war sozusagen ein soziales Experiment was gezeigt hat, dass in der heutigen Zeit Meinungsfreiheit und (schwarzer) Humor unerwünscht sind und jeder sich irgendwie in irgendeiner form direkt beleidigt und diskriminiert fühlt. :D
 

pmkrefeld

Captain
Dabei seit
Feb. 2012
Beiträge
3.187
Macht doch nicht so eine Kontroverse daraus, es fehlt uns bloß noch dass man sich über rassistische Kommentare einer dummen KI beschwert.
Wenn wir schon soweit sind, dann haben wir auch nichts besseres verdient.
 

DeusoftheWired

Admiral
Dabei seit
Juni 2009
Beiträge
9.062
Tatsächlichen Fremdenhass bitte von den Memes aus dem Umfeld aller *chans abgrenzen. Ein Bruchteil derjenigen, die Tay die typischen 9/11-, Hitler-, Mexikaner- und Judensprüche haben zukommen lassen, steht tatsächlich mit eigener Überzeugung dahinter. Dem größeren Teil geht es darum, bewußt zu provozieren und vorhersehbare Reaktionen auszulösen („Oh Gott, über den Holocaust darf man keine Wtze machen.“). Exakt so, wie das bei unzähligen Onlineabstimmungen bisher der Fall war, von denen ein *chan Wind bekommen hat.

Oder sich mal Imageboardkultur im Allgemeinen zu Gemüte führen. „Das Trollparadies“ aus der c’t ist ein ganz guter Enstieg, danach tagelang in der Encyclopædia Dramatica lesen oder am besten in freier Wildbahn lurken.
 
Zuletzt bearbeitet:

Tranceport

Commander
Dabei seit
Dez. 2008
Beiträge
2.919
So unterhaltsam ich das Experiment auch finde, zeigt es in meinen Augen weniger, wieviel Entwicklungsbedarf es bei KI noch gibt, sondern wieviel bei (NI? natürlicher Intelligenz) noch an Luft nach oben ist ;-)
 

W0lfenstein

Commander
Dabei seit
Apr. 2007
Beiträge
2.726
Zuletzt bearbeitet:

Key³

Lt. Commander
Dabei seit
Juli 2010
Beiträge
1.811
Ich empfinde das ganze weniger als Disaster sondern eher hoch interessant was die Weiterentwicklung der ganzen "KI" angeht.

immerhin muss man Berücksichtigen, dass diese "Ki" weder eigene Meinung, Moralvorstellung noch ein Gewissen hat.
 

UltraWurst

Banned
Dabei seit
Aug. 2014
Beiträge
2.269
@sasha87
Diese "KI" ist leider keine KI, sondern nur ein ziemlich billiger Chat-Bot.
 

DocWindows

Commodore
Dabei seit
Mai 2013
Beiträge
4.872
Tay braucht halt wie jedes menschliche Wesen eine Basis an Überzeugungen und Werten. Wenn man ne KI programmiert und sie aufs Internet losläst (oder umgekehrt?!?), dann muss man sie vorher zumindest auf das Level eines 10-jährigen bringen der ein gewisses Maß an Erziehung genossen hat. Ein leerer Container kann nur 1:1 das wiedergeben was man hineintut. Das hat mit Intelligenz nicht viel zu tun.

Was würde wohl dabei rauskommen wenn man einen 10-jährigen mit 0 Erziehung und vorherige Wertevermittlung (also quasi eine leere Hülle, bis auf den Instinkt) an einen Computer mit Twitter setzt? Wahrscheinlich ein Minihitler.
 

Marcel55

Fleet Admiral
Dabei seit
Nov. 2007
Beiträge
10.640
Ich finds witzig :D

Aber ich denke eher da haben sich viele einen Spaß erlaubt, als wirklich die Absicht zu haben, derartige Propaganda zu verbreiten. Es lässt sich doch keiner von sowas irgendwie politisch beeinflussen, aber witzig ist die Sache an sich alle mal.

Ob Filter zum Ziel führen bezweifle ich. Wenn man den KI beibringt, bestimmte Wörter einfach zu ignorieren, wird es nie mals auch nur im Ansatz ein menschlich wirkendes Wesen sein. Der Mensch bekommt sein Wissen ja auch nicht gefiltert, jedoch ist dieser irgendwann in der Lage, zwischen Sinn und Unsinn zu unterschieden. Das muss man programmieren. Aber das geht kaum, ohne seine eigene Meinung da rein fließen zu lassen. Also auch mist.
 

k0ntr

Commander
Dabei seit
Okt. 2007
Beiträge
2.970
Ich finde daraus können viele lernen. Es ist sehr komplex eine KI zu erschaffen die genau so denkt und handelt wie ein Mensch. Bis das 100% funktioniert, kommt der Hoverboard noch :)
 
Top