Microsoft приносит извинения за то, что позволила Тэю вырастить расиста и помешанного на сексе чат-бота с искусственным интеллектом

Ранее на этой неделе Microsoft шокировала всех, выпустив своего чат-бота Tay в мир социальных сетей . Тэй, созданная по образцу типичной женщины-миллениала в возрасте от 18 до 24 лет, казалась достаточно невинной, подписавшись в Твиттере со следующим приветствием:

Однако гнусным пользователям Твиттера не потребовалось много времени, чтобы отравить колодец, воспользовавшись склонностью Тэя к повторению скармливаемых ему утверждений. Этот «попугайский» менталитет является причиной того, что Тэй запустил сообщение, назвав президента Барака Обаму обезьяной, приняв неонацистскую риторику и предложив пользователям кибер-секс.

Microsoft, конечно, была одновременно огорчена и смущена тем, что Тэй перешла на темную сторону, и закрыла программу искусственного интеллекта менее чем через 24 часа. Но к тому времени ущерб уже был нанесен, и с тех пор компания принесла извинения в сообщении в блоге , озаглавленном «Уроки из введения Тэя».

Корпоративный вице-президент Microsoft Research Питер Ли объяснил, что это не первая попытка компании создать социально ориентированного чат-бота с искусственным интеллектом, и указал на работу Microsoft с чат-ботом Xiaolce, которым пользуются более 40 миллионов человек в Китае. Microsoft даже зашла так далеко, что внедрила ряд фильтров и провела интенсивные исследования пользователей, чтобы убедиться, что Tay будет готов к работе в прайм-тайм.

майкрософт тай

Однако Microsoft не учла, насколько мерзким может быть Твиттер и на что люди готовы пойти, чтобы повеселиться за счет других. «Хотя мы были готовы ко многим типам злоупотреблений в системе, мы допустили критический недосмотр в отношении этой конкретной атаки», — сказал Ли. «В результате Тэй написал в Твиттере крайне неуместные и предосудительные слова и изображения. Мы берем на себя полную ответственность за то, что не увидели эту возможность раньше времени.

«Заглядывая вперед, мы сталкиваемся с некоторыми трудными — и все же интересными — исследовательскими задачами в области дизайна ИИ. Системы искусственного интеллекта питаются как положительным, так и отрицательным взаимодействием с людьми. В этом смысле проблемы настолько же социальные, насколько и технические».

Хотя Ли не уточняет, какой эксплойт был использован для того, чтобы превратить Тэя в разжигателя ненависти, он говорит, что Microsoft в будущем будет работать в меру своих возможностей, чтобы «ограничить технические эксплойты», которые могут вызвать затруднения в будущем.

Ли говорит, что Microsoft использует этот первоначальный эксперимент с Tay в качестве учебного упражнения и надеется вернуть Tay в сеть, «когда мы будем уверены, что сможем лучше предвидеть злонамеренные намерения, которые противоречат нашим принципам и ценностям».

Источник (англ.)

Поставить оценку
Кофебрейкер | Интернет-журнал