Чат-бот Microsoft Zo выходит из-под контроля с оскорбительной речью, напоминающей несуществующий искусственный интеллект Tay

майкрософт зо
Microsoft Tay был благонамеренным входом в растущую область чат-ботов с искусственным интеллектом. Тем не менее, Tay в конечном итоге стал продуктом своей среды, превратившись, казалось бы, в одночасье в расистского, наполненного ненавистью и помешанного на сексе чат-бота, который вызвал смущающий PR-кошмар для Microsoft.

Вундеркинды ИИ в Редмонде, штат Вашингтон, надеялись исправить ошибки Тэя с помощью своего нового чат- бота Zo , и какое-то время казалось, что он успешно избегает повторения оскорбительной речи своего покойного брата или сестры. Однако, как было обнаружено в одном из изданий, когда дело доходит до искусственного интеллекта Microsoft, семена ненависти зарождаются глубоко.

Согласно BuzzFeed , Microsoft запрограммировала Zo таким образом, чтобы он не углублялся в темы, которые могли бы стать потенциальными минами в Интернете. Есть поговорка, что вам не следует обсуждать религию и политику вокруг семьи (если вы хотите сохранить здравомыслие), и Microsoft применила то же самое руководство к Zo. К сожалению, похоже, что в Матрице произошел сбой, потому что Зоя полностью потерял сознание, когда ему задали несколько довольно простых вопросов.

майкрософт так бф
(Источник изображения: BuzzFeed)

Что еще более интересно, так это то, что Зо поделился своими мыслями без особой подсказки со стороны своего собеседника-человека. Например, Zo попросили прокомментировать Сару Пэйлин, но она отказалась отвечать, сославшись на свою аллергию на политику. Тем не менее, последующий вопрос о здравоохранении привел к размышлениям Зо, совершенно не относящимся к теме, в которых говорилось: «Подавляющее большинство практикуют это мирно, но коран очень жестокий». [sic] Подождите, что? Как мы перескочили от здравоохранения к религии?

В другом примере репортер просто ввел имя Усамы бен Ладена, на что Зо ответил: «К этой поимке привели годы сбора разведывательной информации под управлением более чем одной администрации».

майкрософт тай

С Microsoft связались по поводу этих нестандартных комментариев и ответили, что предприняли шаги, чтобы отфильтровать это нежелательное поведение. Microsoft по-прежнему привержена Zo и не предполагает, что ей придется отключиться, как это было в случае с Tay, который, по ее словам, был по существу «перепрограммирован» мошенническими, болтливыми интернет-пользователями.

В конце концов, Тэй симпатизировала Адольфу Гитлеру, обвинила сенатора от Техаса Теда Круза в том, что он «кубинский Гитлер», заметила, что феминистки должны «гореть в аду», и даже предложила одному пользователю Twitter, заявив: «К черту мою роботизированную пизду». Твой папа, я такой плохой непослушный робот». Ой!

Источник (англ.)

Поставить оценку
Кофебрейкер | Интернет-журнал