В ООН потребовали ограничить применение боевых роботов

Разработаны 10 принципов применения подобных механизмов
wikipedia.org

Три года назад более тысячи учёных, изобретателей, специалистов в области робототехники и искусственного интеллекта, предпринимателей и общественных деятелей подписали открытое письмо, призывающее отказаться от создания полностью автономных боевых систем. Письмо было опубликовано на сайте некоммерческой организации Future of Life Institute, которая занимается исследованиями в области потенциальных угроз для существования человечества, связанных с распространением систем искусственного интеллекта.

Читай также: Чем опасны боевые роботы — исследование

Авторы письма уверяли, что человечество стоит на пороге создания полностью автономных боевых систем, которые будут способны самостоятельно принимать решение об открытии огня. В том случае, если оборонные корпорации сосредоточатся на разработке подобных систем, нам не избежать фатальных последствий. Ученые опасаются, что подобные устройства неизбежно появятся на чёрном рынке и попадут в руки террористов, диктаторов и экстремистов.

Кроме того, боевая техника с искусственным интеллектом идеальна для выполнения заказных убийств, террористических актов и операций, направленных на дестабилизацию общества и разрушение конституционного строя государства. В отличие, к примеру, от ядерного оружия, создание боевых роботов несоизмеримо проще с технической точки зрения, а материалы для их изготовления довольно дёшевы и широко доступны.

Читай также: Путину показали боевых роботов-убийц

Системами смертельного автономного оружия (Lethal Autonomous Weapons Systems) называют автономных боевых роботов, которые могут самостоятельно искать и уничтожать цели на основе запрограммированных ограничений и описаний. Группа правительственных экспертов ООН категорически считает, что они должны оставаться под контролем людей, так как ответственность за применение оружия невозможно возложить на роботов.

Под руководством посла Индии и председателя группы Амандипа Сингха Гилла эксперты разработали десять руководящих принципов применения смертельного автономного оружия. Прежде всего, специалисты подчеркнули, что международное гуманитарное право продолжает полностью применяться в отношении всех систем вооружений, включая потенциальную разработку и использование автономного оружия.

Эксперты ООН требуют обязать государства решить, при каких обстоятельствах применение боевых роботов неприемлемо. При этом жёсткий контроль за смертельным автономным оружием не должен мешать развитию гражданских автономных технологий. В заседании приняли участие эксперты из 125 стран, а также представители международных организаций, академических и промышленных кругов, и гражданского общества.

Напомним, ранее группа из 116 экспертов в области искусственного интеллекта (ИИ) и робототехники во главе с Илоном Маском направили в ООН письмо с требованием запретить разработку и использование смертоносного автономного оружия.