Een experiment van technologiegigant Microsoft is op fenomenale wijze fout gegaan. Het leek een leuk idee: het ontwikkelen van een chatbot op Twitter, om te ontdekken hoe tieners op het internet praten. De conclusie is na een paar uur echter niet al te best. Als onderdeel van dit onderzoekje had Microsoft een zogenaamde chatbot ontwikkeld. Deze chatbot had echter geen voorgeprogrammeerde teksten, maar probeerde via reacties van andere Twittergebruikers te leren praten.
De ontwikkelaars hadden echter niet verwacht dat gebruikers en masse zouden proberen om TayTweets, zoals de chatbot genoemd wordt, rasistische teksten aan te leren. Dat was echter wel wat er gebeurde. De eerste tweet van Tay was nog onschuldig:
https://twitter.com/TayandYou/status/712613527782076417?ref_src=twsrc%5Etfw
Maar op een gegeven moment liep het helemaal uit de hand. Tay werd gevoed met onzin door kwaadwillende gebruikers, die al snel als een papegaai werd overgenomen door de chatbot. En dat leidde bijvoorbeeld tot pro-hitler tweets:
https://twitter.com/geraldmellor/status/712880710328139776?ref_src=twsrc%5Etfw
Andere tweets waren onschuldiger, maar desalniettemin niet al te wenselijk:
Gelukkig is Microsoft er inmiddels achter dat Tay nog geen groot succes is, en dat tieners (en anderen) misschien toch niet altijd al te serieuze gesprekken wensen te voeren. Tay is al na een paar uur uit de lucht gehaald, waarschijnlijk om de chatbot toch nog eens iets netter af te stellen.
https://twitter.com/TayandYou/status/712856578567839745?ref_src=twsrc%5Etfw