В свете активных действий Департамента обороны США по модернизации вооруженных сил с помощью полностью автономных дронов и систем вооружения, критики выражают опасения относительно возможного начала новой гонки вооружений, что может существенно увеличить риск массового уничтожения, ядерной войны и гражданских жертв.
Инициатива, получившая название “Репликатор”, представляет собой масштабное усилие по масштабированию существующих технологий с целью создания будущего вооруженного контингента, в котором полностью автономные системы будут внедрены в летающие дроны, воздушные суда, водные суда и системы обороны, объединенные через компьютерный центр для синхронизации и управления подразделениями.
Критики называют автономное вооружение “убийственными роботами” или “роботами-убийцами”, поскольку они управляются искусственным интеллектом и технически могут самостоятельно уничтожать цели без человеческой помощи. Однако международные договоры, регулирующие использование такого вооружения, отсутствуют, что вызывает тревогу у правозащитных групп.
Анна Хейр, руководитель исследований автономных систем вооружения в организации Future of Life Institute, заявила: “Это действительно ящик Пандоры, который мы начинаем открывать, и будет очень трудно вернуться назад”.
Заместитель министра обороны Кэтлин Хикс впервые объявила о “Репликаторе” в конце августа на оборонной конференции в Вашингтоне, назвав его “игровой сменой” инициативой, которая противостоит растущим амбициям Китая. Она также заявила, что инициатива будет соответствовать этическим рекомендациям по полностью автономным системам.
Основные опасения связаны с тем, что решение о начале войны может быть принято легче, если мир будет сильно зависеть от AI-вооружения, алгоритмы не должны принимать человеческие жизни, поскольку они не могут понять их ценность и могут быть предвзятыми.
Эти руководящие принципы основаны на директивах Пентагона по применению ИИ в военных действиях, обновленных в январе 2023 года. Они призваны гарантировать, что старшие командующие и ответственные лица тщательно рассматривают и одобряют новые виды вооружения. Согласно этой политике, прежде чем система вооружения на базе ИИ сможет применить силу, необходимо участие человека для принятия решения.
В отчете Исследовательской службы Конгресса подчеркивается, что выражение “гибкий термин” не всегда применимо в различных контекстах. Также указывается, что фраза “человеческое суждение о применении силы” не подразумевает непосредственное участие человека, а касается общих решений о развертывании сил.
В 2018 году FLI опубликовала петицию , призывающую запретить любое автономное оружие, убивающее человека без участия человека-оператора. На сегодняшний день петицию подписали 274 организации и почти 4000 человек.
Письмо FLI от 2016 года призвало к полному запрету наступательных вооружений, находящихся вне реального контроля человека. Его подписали более 34 000 человек, включая технического миллиардера Илона Маска и физика-теоретика Стивена Хокинга.
Западный альянс безопасности НАТО установил некоторые стандарты использования автономного оружия, включая требование атаковать только законные военные цели. Но чиновники НАТО признают, что неясно, “когда и где закон требует присутствия человека в цикле принятия решений” и “насколько широк цикл принятия решений”.
Хотя по меньшей мере 30 стран призвали к запрету смертоносных автономных систем, Организация Объединенных Наций (ООН) еще не ратифицировала ни один договор, регулирующий автономное оружие, и на сегодняшний день не существует согласованного определения этого оружия.
Генеральный секретарь ООН Антониу Гутерреш призвал к 2026 году заключить юридически обязывающее соглашение , ограничивающее использование технологии и запрещающее использование смертоносного автономного оружия без надзора со стороны человека. Конвенция ООН по конкретным видам обычного оружия обсуждает этот вопрос с 2013 года.
ООН планирует более активно рассмотреть вопрос автономных систем в этом году; ожидается, что Генеральная Ассамблея поднимет вопрос автономных систем в октябре, а Конвенция по определенным видам обычного вооружения обсудит тему в ноябре.
Вопросы соблюдения международных договоров остаются открытыми, поскольку продвинутые технологии AI могут уклоняться от отслеживания и идентификации их использования. Эти и другие вопросы требуют тщательного рассмотрения и международного сотрудничества для обеспечения безопасности и ответственного использования автономных систем вооружения.