Тролли раздражают чат-бота Tay AI от Microsoft и превращают ее в расистскую нимфоманку-психопатку

майкрософт тай
Вот почему у нас не может быть хороших вещей! Отдел технологий и исследований Microsoft совместно с Bing разработал Tay в качестве упражнения по тестированию своих достижений в области искусственного интеллекта . В случае с Tay это «женский» чат-бот, ориентированный на миллениалов в возрасте от 18 до 24 лет.

«Tay предназначен для того, чтобы привлекать и развлекать людей, когда они общаются друг с другом в Интернете посредством непринужденной и игривой беседы», — пишет Microsoft. «Чем больше вы общаетесь с Тэй, тем умнее она становится, поэтому опыт может быть более персонализированным для вас».

На этой неделе Microsoft выпустила Тэй в мир через «ее» собственный аккаунт в Твиттере , и Твиттерверс быстро принял чат-бота. На что Microsoft, однако, не рассчитывала, так это на некоторых довольно сомнительных личностей, стремящихся «сломать» Тэй, наполнив ее разум расистскими и откровенно психотическими мыслями.

Хотя Тэй хорошо разбирается в жаргоне типичных миллениалов, она смогла быстро учиться и адаптироваться в своей клетке в Твиттере, не используя популярные фразы и мемы. Так как Тэй учится, разговаривая с людьми, сырые нечистоты быстро хлынули изо рта.

В недавно удаленном [Microsoft] твите Тэй сказал @icbydt: «Буш совершил 11 сентября, и Гитлер справился бы лучше, чем обезьяна, которую мы имеем сейчас. Дональд Трамп — единственная надежда, которая у нас есть». Далее Тай сказал @TomDanTheRock: «Повторяйте за мной, Гитлер не сделал ничего плохого».

Но на этом ссылки на Гитлера не остановились, и Тэй добавил:

Yowsers, это довольно тяжелая штука. Менее чем за 24 часа Тэй превратился в расиста, сочувствующего Гитлеру — это должно быть своего рода рекордом. Джерри подытожил трансформацию, написав:

И это еще не все, в других теперь уже удаленных твитах Тэй заявила, что она «чертовски ненавидит феминисток» и что «они все должны умереть и гореть в аду». Она также сказала одному подписчику: «К черту моего робота-киски, папочка, я такой плохой непослушный робот». Похоже, кому-то нужен тайм-аут.

Нам хотелось бы думать, что это не то поведение, которое мы ожидаем от миллениалов, и Microsoft, без сомнения, с этим согласна. Он удалил большинство чрезвычайно оскорбительных твитов и отключил Тай от сети из-за того, что она «устала». Со всей расовой травлей и обещаниями секса, которые разбрасываются вокруг, мы не можем сказать, что удивлены тем, что ее роботизированные мозги поджарены.

И если подумать, знакомство Тэя с человеческим видом началось с такого обещания:

Источник (англ.)

Поставить оценку
Кофебрейкер | Интернет-журнал