Preloader

Представители религиозных общин призывают Конгресс запретить ИИ убивать без человеческого вмешательства

Сhristian Post 20 апр., 2026 0
Представители религиозных общин призывают Конгресс запретить ИИ убивать без человеческого вмешательства

Коалиция лидеров многоконфессиональных организаций призвала Конгресс США установить правовые ограничения на использование автономного оружия с ИИ, подчеркивая, что решения о лишении жизни не должны делегироваться машинам.

Учитывая растущее использование инструментов искусственного интеллекта в военной сфере, коалиция лидеров из нескольких многоконфессиональных организаций в пятницу призвала Конгресс принять меры для предотвращения использования автономного оружия с ИИ для убийства без человеческого вмешательства.

Коалиция из 20 религиозных лидеров выразила свои опасения в письме комитетам по вооруженным силам Сената и Палаты представителей, опубликованном организацией Americans for Responsible Innovation, некоммерческой организацией, занимающейся адвокацией политики в общественных интересах.

«Мы обращаемся к вам как пастыри наших общин, как люди веры, которые верят, что святость человеческой жизни является священным обязательством», — заявили религиозные лидеры.

«Поскольку инструменты ИИ все чаще используются в военном контексте, мы призываем Конгресс установить правовые границы, регулирующие, когда и как Пентагон может развертывать автономное оружие с ИИ, обеспечивая, чтобы мужчины и женщины наших Вооруженных сил всегда были наделены павом принимать окончательное решение о том, когда лишить жизни».

В прошлом месяце Джеральд Мако, научный сотрудник Кембриджского форума Центральной Азии в Кембриджском университете, объяснил в отчете, опубликованном Институтом права и сухопутной войны Либера в Военной академии Вест-Пойнт в Нью-Йорке, что автономные системы вооружения создали проблему для международного гуманитарного права.

Мако объяснил, что законность автономного оружия в соответствии с международным гуманитарным правом зависит от его соответствия основным принципам Женевских конвенций 1949 года и Дополнительного протокола I 1977 года, которые охватывают различие, соразмерность, предосторожность и оговорку Мартенса.

«Но как только в картину вступает ИИ, эти давние правила сталкиваются с уровнем сложности, для которого они никогда не были предназначены, создавая совершенно новый набор проблем с подотчетностью», — пояснил Мако.

«Как только машина, а не человек, осуществляет суждение, традиционно требуемое для различения гражданских лиц и комбатантов, или для взвешивания сопутствующего ущерба против военного преимущества, или для отмены атаки при изменении обстоятельств, фундаментальные предположения МГП ставятся под сомнение».

Религиозные лидеры подчеркнули эту проблему в своем письме в Конгресс и настаивали, что оружие, управляемое ИИ, не подходит для войны.

«Недавние споры об использовании и приобретении военными моделей ИИ выявили тревожную реальность: хотя эти системы все чаще используются в военных операциях, в настоящее время не существует правил, гарантирующих человеческий мониторинг автономных систем вооружения», — утверждала группа.

«Каждая великая религиозная традиция учит нас, что лишение жизни — это серьезный и торжественный акт. По соображениям совести мы считаем, что такое решение никогда не должно делегироваться машине».

 Автономные системы вооружения на основе ИИ обычно делятся на три отдельные категории: полуавтономные системы, автономия под надзором и полностью автономные системы. Операторы контролируют полуавтономные системы, в то время как ИИ обрабатывает навигацию или предложения целей.  Операторы могут в любое время отменить действие автономного оружия под надзором, в то время как полностью автономное оружие следует «заранее запрограммированным правилам и ИИ для адаптации к изменяющимся ситуациям и может находить и атаковать цели самостоятельно», согласно Мако.

Боеприпасы с патрулированием, такие как израильский Harop и турецкий Kargu-2, которые представляют собой гибридную систему вооружения, сочетающую наблюдение с дронов с возможностями точного удара, подобными ракетам, не вписываются четко в эти категории. По словам Мако, они размывают границы между работой под надзором (или полуавтономной) и полной автономией.

«Большинство этих технологий уже использовались в конфликтах, поскольку дроны развертывались в Пакистане, Азербайджане или в Украине. Рои дронов пойдут еще дальше, поскольку флотилии запрограммированы на самоорганизацию, подавляя защиту и динамически корректируя формации без прямого человеческого ввода», — объяснил он.

Многоконфессиональная группа утверждала, что в США в настоящее время нет всеобъемлющего федерального закона, ограничивающего использование автономного оружия с ИИ без человеческого надзора, а текущие политические документы, регулирующие его использование, можно обойти.

Хотя у Министерства обороны действительно есть директива, которая «устанавливает политику и распределяет обязанности по разработке и использованию автономных и полуавтономных функций в системах вооружения» и «руководящие принципы, предназначенные для минимизации ... непреднамеренных столкновений», некоторые утверждают, что этого недостаточно. 

«Сегодняшний ИИ не готов принимать решения о жизни и смерти. Мы выступаем из уважения к человеческому достоинству, а не из страха перед технологией. Системы ИИ лишены человечности, которая позволяет каждому из нас постигать мир, в котором мы существуем», — предупредила религиозная группа.

«Они спотыкаются в незнакомых обстоятельствах. И они не могут понять, в каком-либо значимом смысле, моральную и духовную тяжесть прекращения человеческой жизни. Каждый человек, который может оказаться на прицеле такого оружия, является чьим-то родителем, ребенком, соседом и любимым человеком», — добавили они.  «Машины не понимают эту истину. Существуют серьезные моральные последствия от ошибочной идентификации цели, удара в неподходящее время или неверного толкования сценария».

Поделиться:
Автономное оружие искусственный интеллект военная этика