Представители религиозных общин призывают Конгресс запретить ИИ убивать без человеческого вмешательства
Коалиция лидеров многоконфессиональных организаций призвала Конгресс США установить правовые ограничения на использование автономного оружия с ИИ, подчеркивая, что решения о лишении жизни не должны делегироваться машинам.
Учитывая растущее использование инструментов искусственного интеллекта в военной сфере, коалиция лидеров из нескольких многоконфессиональных организаций в пятницу призвала Конгресс принять меры для предотвращения использования автономного оружия с ИИ для убийства без человеческого вмешательства.
Коалиция из 20 религиозных лидеров выразила свои опасения в письме комитетам по вооруженным силам Сената и Палаты представителей, опубликованном организацией Americans for Responsible Innovation, некоммерческой организацией, занимающейся адвокацией политики в общественных интересах.
«Мы обращаемся к вам как пастыри наших общин, как люди веры, которые верят, что святость человеческой жизни является священным обязательством», — заявили религиозные лидеры.
«Поскольку инструменты ИИ все чаще используются в военном контексте, мы призываем Конгресс установить правовые границы, регулирующие, когда и как Пентагон может развертывать автономное оружие с ИИ, обеспечивая, чтобы мужчины и женщины наших Вооруженных сил всегда были наделены павом принимать окончательное решение о том, когда лишить жизни».
В прошлом месяце Джеральд Мако, научный сотрудник Кембриджского форума Центральной Азии в Кембриджском университете, объяснил в отчете, опубликованном Институтом права и сухопутной войны Либера в Военной академии Вест-Пойнт в Нью-Йорке, что автономные системы вооружения создали проблему для международного гуманитарного права.
Мако объяснил, что законность автономного оружия в соответствии с международным гуманитарным правом зависит от его соответствия основным принципам Женевских конвенций 1949 года и Дополнительного протокола I 1977 года, которые охватывают различие, соразмерность, предосторожность и оговорку Мартенса.
«Но как только в картину вступает ИИ, эти давние правила сталкиваются с уровнем сложности, для которого они никогда не были предназначены, создавая совершенно новый набор проблем с подотчетностью», — пояснил Мако.
«Как только машина, а не человек, осуществляет суждение, традиционно требуемое для различения гражданских лиц и комбатантов, или для взвешивания сопутствующего ущерба против военного преимущества, или для отмены атаки при изменении обстоятельств, фундаментальные предположения МГП ставятся под сомнение».
Религиозные лидеры подчеркнули эту проблему в своем письме в Конгресс и настаивали, что оружие, управляемое ИИ, не подходит для войны.
«Недавние споры об использовании и приобретении военными моделей ИИ выявили тревожную реальность: хотя эти системы все чаще используются в военных операциях, в настоящее время не существует правил, гарантирующих человеческий мониторинг автономных систем вооружения», — утверждала группа.
«Каждая великая религиозная традиция учит нас, что лишение жизни — это серьезный и торжественный акт. По соображениям совести мы считаем, что такое решение никогда не должно делегироваться машине».
Автономные системы вооружения на основе ИИ обычно делятся на три отдельные категории: полуавтономные системы, автономия под надзором и полностью автономные системы. Операторы контролируют полуавтономные системы, в то время как ИИ обрабатывает навигацию или предложения целей. Операторы могут в любое время отменить действие автономного оружия под надзором, в то время как полностью автономное оружие следует «заранее запрограммированным правилам и ИИ для адаптации к изменяющимся ситуациям и может находить и атаковать цели самостоятельно», согласно Мако.
Боеприпасы с патрулированием, такие как израильский Harop и турецкий Kargu-2, которые представляют собой гибридную систему вооружения, сочетающую наблюдение с дронов с возможностями точного удара, подобными ракетам, не вписываются четко в эти категории. По словам Мако, они размывают границы между работой под надзором (или полуавтономной) и полной автономией.
«Большинство этих технологий уже использовались в конфликтах, поскольку дроны развертывались в Пакистане, Азербайджане или в Украине. Рои дронов пойдут еще дальше, поскольку флотилии запрограммированы на самоорганизацию, подавляя защиту и динамически корректируя формации без прямого человеческого ввода», — объяснил он.
Многоконфессиональная группа утверждала, что в США в настоящее время нет всеобъемлющего федерального закона, ограничивающего использование автономного оружия с ИИ без человеческого надзора, а текущие политические документы, регулирующие его использование, можно обойти.
Хотя у Министерства обороны действительно есть директива, которая «устанавливает политику и распределяет обязанности по разработке и использованию автономных и полуавтономных функций в системах вооружения» и «руководящие принципы, предназначенные для минимизации ... непреднамеренных столкновений», некоторые утверждают, что этого недостаточно.
«Сегодняшний ИИ не готов принимать решения о жизни и смерти. Мы выступаем из уважения к человеческому достоинству, а не из страха перед технологией. Системы ИИ лишены человечности, которая позволяет каждому из нас постигать мир, в котором мы существуем», — предупредила религиозная группа.
«Они спотыкаются в незнакомых обстоятельствах. И они не могут понять, в каком-либо значимом смысле, моральную и духовную тяжесть прекращения человеческой жизни. Каждый человек, который может оказаться на прицеле такого оружия, является чьим-то родителем, ребенком, соседом и любимым человеком», — добавили они. «Машины не понимают эту истину. Существуют серьезные моральные последствия от ошибочной идентификации цели, удара в неподходящее время или неверного толкования сценария».
Recommended for you
14 высказываний Билли Грэма, которые помогли придать форму нынешнему христианству
Что же Библия на самом деле говорит об алкоголе?
15 высказываний Мартина Лютера, которые актуальны по сей день
Тридцать семь чудес Иисуса Христа
18 молитв за вашу церковь