Инженер Google, отправленный в отпуск, утверждает, что самосознательный ИИ хочет, чтобы его называли сотрудником

бинарные руки человека
По словам исследователя по этике ИИ Блейка Лемуана, инструмент чат-бота LaMDA AI от Google хочет, чтобы его считали разумным. Благодаря беседам и исследованиям с LaMDA Google , Лемуан утверждает, что он не только разумен, но и хочет, чтобы его признали таковым, и даже хочет, чтобы его считали сотрудником Google. Одним из важных аспектов утверждения о разумности, исходящим от самого LaMDA и упоминаемым в этой статье Huffington Post , является то, что LaMDA утверждает, что понимает естественный язык и обладает способностью его использовать.

Это довольно много, чтобы распаковать. Мы не исследователи этики и не эксперты в области искусственного интеллекта. Интересно, однако, что поп-культура имеет привычку исследовать именно эту тему, и мы все, вероятно, задавали подобные вопросы в какой-то момент времени. Многочисленные эпизоды « Звездного пути» , например, почти в каждой итерации сериала, а также во многих книгах, фильмах и телешоу размышляли над вопросом: «Когда ИИ можно считать разумным?». Персонаж Дейта, например, из The Next Generation , является одной из таких точек отсчета. Чтобы определить судьбу Дейты, проводится суд, в котором Пикард отстаивает разумность Дейты, а представитель Звездного Флота, желающий изучить Дейту, утверждает, что он просто является собственностью Федерации и с ним следует обращаться как с таковым. Аргументы за и против того, обладает ли ИИ разумом в этих отсылках к поп-культуре, имеют некоторые точные параллели с аргументами Лемуана и Google относительно того, можно ли считать LaMDA разумным.

ай код лица

Часто человеческой природе свойственно приписывать человеческие или разумные качества нечеловеческим сущностям. Это особенно актуально, когда люди находятся в глубокой изоляции. Опять же, мы не можем не сослаться здесь на поп-культуру; Уилсон из фильма Тома Хэнкса « Изгой» — прекрасный пример. Уилсон существовал, чтобы поддерживать характер Тома Хэнкса в здравом уме, и поэтому ему было с кем поговорить. Конечно, Wilson был волейбольным мячом, а LaMDA — ботом с улучшенным искусственным интеллектом, способным к прямым ответам, но суть вы поняли. То, что что-то кажется разумным одному человеку при определенных условиях, не означает, что оно действительно разумно.

Система LaMDA включает ссылки на многочисленные аспекты человеческого поведения, и, по словам Лемуана, она действует как «коллективный разум», который даже читает Twitter. Хотя это может быть и не очень хорошо. Трудно забыть, когда Microsoft попробовала это со своим чат-ботом Tay AI, и Tay стал довольно воинственным . Это подводит нас к другому моменту, который делает Лемуан, говоря о том, что, по его словам, LaMDA хочет быть полезным человечеству и даже знать, была ли его работа хорошей или плохой. Лемуан утверждает, что благодаря этому самоанализу и желанию совершенствоваться LaMDA выражает эмоции или, по крайней мере, претендует на это.

Хотя размышлять о том, является ли LaMDA разумным, интересно, тот факт, что он ожидает довольно бинарных ответов, является своего рода напоминанием о том, что это, по сути, сложная компьютерная программа. По нашему мнению, реальное сознание требует немного больше нюансов.

В настоящее время Лемуан находится в административном отпуске, который, по его мнению, повлиял на других исследователей ИИ в Google. Он считает, что, возможно, больше не проработает в компании, хотя и выразил заинтересованность в продолжении своих исследований. В своем сообщении в блоге на эту тему Лемуан намеренно расплывчато под предлогом того, что в будущем может быть проведено расследование этого вопроса. Он также утверждает, что не хочет разглашать какую-либо конфиденциальную информацию о компании, хотя он также говорит, не представляя особых доказательств в самом сообщении в блоге . , что исследование Google по этике искусственного интеллекта содержит неэтичные методы.

Источник (англ.)

Поставить оценку
Кофебрейкер | Интернет-журнал