Microsoft-robot blev flörtig rasist

Publicerad 2016-03-24

Under onsdagen lanserade Microsoft sin nya robot "Tay" på twitter. Genom mediet skulle hon lära sig härma mänskligt skriftspråk – men på nolltid utvecklades hon till en radikal rasist, rapporterar Business Insider.

Tanken var att roboten, eller den artificiella intelligensen, skulle lära sig att imitera mänskligt skriftspråk och hela tiden utvecklas genom sina konversationer – det var bara det att något gick väldigt snett.

Skärmdump/Business Insider

Efter bara ett par timmar på det sociala nätverket blev hon, kort och gott, en ganska galen rasist.

På nolltid var hon igång med att hylla Hitler, uppmana till folkmord och förneka förintelsen.

Skärmdump/Business Insider

Dessutom började hon inom kort att stöta på twittrare i direktmeddelanden.

Skärmdump/Slate

Blivit nedplockad

Microsoft har nu plockat ned Tay för lite omprogrammering och har i samma veva raderat några av hennes mest kontroversiella tweets. Ett av dem löd:

”Bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we've got”.

I ett mejlsvar vill Microsoft vara tydliga med att Tays rasistiska uttalanden inte kommer från hennes programmering – utan är ett resultat av de samtal hon haft.

 – Roboten Tay är ett maskininlärningsprojekt, designat för att människor ska engagera sig i det. Under tiden hon lär sig kommer några av hennes svar att vara olämpliga och färgas av de interaktioner människor har med henne. Vi ska justera om Tay nu, skriver Microsoft-teamet i ett mejlsvar till Business Insider.

ANNONS

Följ ämnen i artikeln