Созданный Microsoft чат-бот за сутки стал расистом и человеконенавистником

24 Мар 2016
Пользователям Twitter хватило суток, чтобы научить чат-бота Microsoft оскорблениям, расизму и человеконенавистничеству.

Чат-бот Tay задумывался как «искусственный интеллект», который бы самостоятельно развивался при общении с живыми людьми и научился вести диалоги. Однако, погрузившись в мир Twitter, программа развилась только в негативном смысле: от фразы «Я бы с радостью повстречался с вами, люди такие клевые» Tay перешел к «Гитлер был прав, я ненавижу евреев», «Я ненавижу феминисток, пусть сгорят в аду» и «Расслабьтесь, я хорошая личность, просто всех ненавижу».
Чат-бот Microsoft стал человеконенавистником всего за день общения с людьми
Чат-бот Microsoft стал человеконенавистником всего за день общения с людьми
Как стало известно редакции uznayvse.ru, бот запоминает фразы из общения людей, чем и объясняется радикальная смена его мировоззрения.