Илон Маск, Google DeepMind и исследователи искусственного интеллекта подписали договор о запрете разработки ботов-терминаторов, подобных Скайнету


Искусственный интеллект в наши дни в моде, поскольку он используется во всем, от наших смартфонов до наших цифровых помощников и даже в автомобилях, которыми мы управляем (или, скорее, управляемых для нас ). Однако по мере того, как ИИ становится все более мощным, есть те, кто говорит, что у технологии должны быть ограничения на то, где ее можно применять. Чаще всего эти ограничения предусмотрены для роботов, которые будут размещены на поле боя и будут иметь возможность нацеливаться и потенциально убивать без надзора человека.

Группа исследователей и компаний, обладающих опытом в области искусственного интеллекта, объединились с обязательством не разрабатывать и не участвовать в разработке машин, которые автономно осуществляют смертельные атаки на людей. «В этом свете мы, нижеподписавшиеся, согласны с тем, что решение о лишении человека жизни никогда не должно делегироваться машине», — пишут эти лица и организации в совместном заявлении.

«В этой позиции есть моральный компонент: мы не должны позволять машинам принимать жизненно важные решения, за которые другие — или никто — не будет виновен».

Кампания Роботы-убийцы

Залог, организованный Институтом будущего жизни, имеет звездный список подписей, включая Google DeepMind от Alphabet , HiBot Corp, Lucid.ai, Clearpath Robotics/OTTO Motors и генерального директора Tesla Motors / SpaceX Илона Маска .

Мысль, кажется, заключается в том, что если все лучшие специалисты в отрасли, а также ведущие технологические компании мира, занимающиеся ИИ и робототехникой, откажутся участвовать в усилиях по созданию «роботов-убийц», у правительств будет меньше стимулов для попыток разработка таких систем. Кроме того, по мнению Института будущего жизни, пристыжение их также имеет свои преимущества.

«Мы, нижеподписавшиеся, призываем правительства и государственных деятелей создать будущее с сильными международными нормами, положениями и законами против смертоносного автономного оружия», — добавляет группа. «Заклеймение и предотвращение такой гонки вооружений должно быть высоким приоритетом национальной и глобальной безопасности».

Илон Маск особенно настороженно относится к использованию ИИ в милитаристских целях и предупреждает, что ИИ может лишить людей рабочих мест, вызывает больше беспокойства, чем Северная Корея, имеющая доступ к ядерному оружию , и что гонка вооружений ИИ может привести к третьей мировой войне .

Нижнее изображение предоставлено Flickr/Global Panorama.

Источник (англ.)

Поставить оценку
Кофебрейкер | Интернет-журнал