Чат-ботът расист на Microsoft излезе онлайн, призна че използва наркотици и отново бе изключен

Вече съобщихме, че чат-ботът с изкуствен интелект Tay на Microsoft, започна да общува с обикновените потребители в Twitter. Ботът имитира общуване с виртуална тинейджърка. Неукрепналият още ИИ не можа да се справи с наплива на троловете и започна да повтаря техните расистки фрази. Корпорацията изтри по-голямата част от коментарите на своя бот и го изключи, за да усъвършенства неговото общуване.

 

-   Microsoft  ,

Microsoft се извини на всички потребители за поведението на своя бот. Корпорацията очевидно счете, че вече всичко е наред и отново включи Tay. Според създателите на Tay, ботът вече може по-добре да различава вредните нюанси на речта. Въпреки това, малко след като бе включен, ботът си призна, че взема наркотици.

 

-   Microsoft  ,

След това ботът помоли своите 210 000 последователи да изчакат и да си починат. Явно това е своеобразната защита на ИИ при непредвидени ситуации, понеже тази молба бе повторена многократно. Малко по-късно Microsoft отново изключи Tay.

Да си припомним, че същият бот на Microsoft отдавана си общува потребителите в Китай, където си взаимодейства с около 40 милиона души в Twitter, Line, Weibo и други социални ресурси. Англоезичната версия на Tay все не успява да се справи с информацията, с която я засипват интернет-троловете.

Чат-ботът на Microsoft предизвика много голям интерес в уеб-пространството, като някои потребители считат, че Tay е най-големият успех в историята на корпорацията.

Коментари
Все още няма коментари
Статистика
Прегледи 75
Коментари 0
Рейтинг
Добавена на01 Апр 2016
ИзточникKaldata

Тагове
Microsoft