|
Още вчера Microsoft "приспа" чат-бота Tay - изкуственият интелект, който моделира личността и начина на общуване на 19-годишно американско момиче с вградена възможност за самообучение. Нейните създатели от Microsoft Research се надяваха, че Tay със всеки изминал ден ще става все по-умна, като постепенно натрупва опит от хилядите умни потребители на Глобалната мрежа. Но се случи нещо друго. Само след един ден се наложи изтриването на почти всички туитове на Tay поради ужасния расизъм и вулгарност, с които бяха пропити. 
Формулираният още през 90-те години закон на Годуин гласи, че "Колкото по-дълга става една онлайн дискусия, толкова вероятността да се появят сравнения с Хитлер и нацизма, се стреми към 1". Точно това се случи и с Tay: чат-ботът започна да оскърбява негрите, евреите, мексиканците и да възхвалява Хитлер и Холокоста. Виртуалното момиче се превърна от забавен тинейджър във войнстващ неонацист. 
По-късно специалистите на Microsoft съобщиха, че са задействали филтри за вулгарните изрази. Но филтрите не можаха да се оправят с тълпите интернет-тролове, които си поставиха за цел да трансформират "личността" на Tay, като експлоатират нейната система за самообучение. 
Чат-ботът бе програмиран да повтаря думите на хората по тяхна команда, Тази новина бързо се разпространи във форумите 4chan и 8chan и по-точно в разделите Politically Incorrect. Многобройните тролове и хулигани се забавляваха да учат Tay на расистки и нацистки изрази. 
Повечето от расистките туитове на Tay са именно отговор на играта "Repeat after me", в която тя дословно повтаря думите на потребителите. Играта "Repeat after me" не бе единствената "слабост" на Tay. Чат-ботът бе програмиран да има възможност да нарисува кръг около лицата от фотографиите и да вмъкне текст. 
В тролинга на виртуалното момиче започнаха да се включват все повече потребители от форумите на 4chan и не само оттам. Расистките изрази постепенно попиваха в изкуствения интелект и тя започна да ги съчинява самостоятелно. Интересен е фактът, че подобни чат-ботове с ИИ, който може да се самообучава, бяха пуснати и в Китай и Япония, но там нищо подобно не се случи. В крайна сметка Microsoft реши да "приспи" своя чат-бот. Някои потребители се сбогуваха с Tay по следния начин: "Сбогом Tay! Ти бе твърде невинна за този свят". |