Van Twitterbot tot Tweetracist in 24 uur

In minder dan 24 uur zijn Twittergebruikers er in geslaagd om een chatbot-project van computerbouwer Microsoft om te vormen tot een racistische en haatspuwende Twitteraar. Tay, zo heette de bot, is intussen offline gehaald.

Het project begon nochtans hoopgevend. Tay was een project om artificiële intelligentie of A.I. te testen. Wie naar Tay een tweet stuurde, kreeg een berichtje terug. De software was zodanig gemaakt dat Tay bij elke interactie zou bijleren en dicht mogelijk bij de mens te raken.

Helaas had Microsoft er niet op gerekend dat Twitteraars ook negatieve boodschappen naar Tay zouden sturen. Tay ‘leerde’ door alle racistische, nazistische en antifeministische tweets ook bij en op minder dan 24 uur spuwde Tay ook zelf politiek incorrecte boodschappen.

Computerexperts stellen wel vragen bij wat er met Tay is gebeurd. Hoewel Tay een relatief simpel stukje software is dat enkel kan tweeten, bleek de chatbot makkelijk beïnvloedbaar. Als er ooit A.I. wordt ontwikkeld met meer verantwoordelijkheid en dit gebeurt, vrezen doemdenkers het einde van de mensheid. Gelukkig zijn we op dit moment nog lang zo ver niet.