Роботы-убийцы и искусственный интеллект: каким будет оружие будущего
Роботов-убийц будущего обычно изображают агрессивными человекообразными железяками, вроде Терминатора. Однако автономное оружие с искусственным интеллектом уже активно применяется в войнах, в том числе и в российско-украинской. Однако что делать, чтобы это оружие не стало очередным изобретением человечества, которое лучше бы никогда не создавали? Этим вопросом обеспокоены Миранда Моубрей и Джонатан Эрскин, преподавательница и аспирант по интерактивному искусственному интеллекту Бристольского университета.
Оригинал их статьи был опубликован на the Conversation, перевод подготовили Новини.LIVE.
Что роботы-убийцы означают для будущей войны
Вы могли слышать о роботах-убийцах, убойных роботах или терминаторах — официально это называется летальным автономным оружием (ЛАО) — из фильмов и книг. Идея о том, что суперинтеллектуальное оружие будет бесчинствовать, все еще остается научной фантастикой. Но по мере того, как оружие с искусственным интеллектом становится все более совершенным, растет обеспокоенность общественности по поводу отсутствия подотчетности и риска технических сбоев.
Мы уже видели, как так называемый нейтральный искусственный интеллект (ИИ) создавал сексистские алгоритмы и неумелые системы модерации контента, в основном потому, что их создатели не понимали технологии. Но на войне такие недоразумения могут привести к гибели гражданских или срыву переговоров.
К примеру, благодаря методу распознавания целей можно научить распознавать танки на спутниковых снимках. Но что если на всех снимках, использованных для обучения системы, изображены солдаты в строю вокруг танка? Система может принять гражданский автомобиль, что проезжает через военный блокпост, за цель.
Зачем нам нужно автономное оружие
Гражданское население многих стран (таких как Вьетнам, Афганистан и Йемен) страдает от того, как мировые сверхдержавы создают и используют все более совершенное оружие. Многие утверждают, что они принесли больше вреда, чем пользы, и последним примером этого является российское вторжение в Украину в начале 2022 года.
В другом лагере есть люди, которые говорят, что страна должна быть способна защитить себя, а значит, она должна идти в ногу с военными технологиями других стран. ИИ уже может перехитрить человека в шахматах и покере. Он превосходит людей и в реальном мире. Например, Microsoft утверждает, что программное обеспечение для распознавания языка имеет уровень ошибок 1% по сравнению с человеческими ошибками, которые составляют около 6%. Неудивительно, что армии постепенно передают алгоритмам бразды правления.
Но как нам избежать добавления роботов-убийц в длинный список вещей, которые мы хотели бы никогда не изобретать? Прежде всего: знай своего врага.
Что такое летальное автономное оружие (ЛАО)
Министерство обороны США дает следующее определение автономной системы вооружения: "Система вооружения, которая после активации может выбирать и поражать цели без дальнейшего вмешательства человека-оператора".
Многие боевые системы уже отвечают этому критерию. Компьютеры на беспилотниках и современных ракетах обладают алгоритмами, которые могут обнаруживать цели и вести огонь по ним с гораздо большей точностью, чем человек-оператор. Израильский "Железный купол" — одна из нескольких систем активной обороны, которые могут поражать цели без присмотра человека.
Хотя "Железный купол" предназначен для противоракетной обороны, он может случайно убить людей. Но этот риск считается приемлемым в международной политике, поскольку "Железный купол" имеет надежную историю защиты жизни гражданского населения.
Существует оружие с искусственным интеллектом, предназначенное для нападения на людей — от роботов-стражей до беспилотников-камикадзе, которые используются в войне в Украине. ЛАО уже здесь. Итак, если мы хотим влиять на их использование, мы должны понимать историю современного оружия.
Правила войны
Международные соглашения, такие как Женевские конвенции, устанавливают правила обращения с военнопленными и гражданскими лицами во время конфликта. Они являются одним из немногих инструментов, которыми мы располагаем для контроля за ведением войн. К сожалению, применение химического оружия США во Вьетнаме и россией в Афганистане является доказательством того, что эти меры не всегда успешны.
Хуже, когда ключевые игроки отказываются подписываться. Международная кампания за запрет наземных мин (МКЗНМ) с 1992 года лоббирует среди политиков запрет мин и кассетных боеприпасов, которые хаотично разбрасывают маленькие бомбы на большой площади. В 1997 году Оттавское соглашение включало запрет этого оружия, которое подписали 122 страны. Но США, Китай и россия не присоединились к нему.
Начиная с 2015 года, от наземных мин получали ранения и погибали по меньшей мере 5000 военнослужащих и гражданских лиц ежегодно, а в 2017 году — 9440 человек. Об этом говорится в отчете "Мониторинг наземных мин и кассетных боеприпасов 2022 года":
"Потери были тревожно высокими за последние семь лет, после более чем десятилетия исторического сокращения. 2021 год не стал исключением. Эта тенденция в значительной степени является результатом усиления конфликтов и загрязнения местности самодельными минами, что наблюдается с 2015 года. Большинство зарегистрированных жертв — гражданские лица, половина из которых — дети."
Наше будущее
Но как насчет более совершенного оружия с искусственным интеллектом? Кампания "Остановить роботов-убийц" перечисляет девять ключевых проблем, связанных с законами об оружии, сосредотачиваясь на отсутствии подотчетности и дегуманизации убийства.
Хотя эта критика справедлива, полный запрет ЛАО нереален по двум причинам. Во-первых, как и в случае с минами, ящик Пандоры уже открыт. Кроме того, границы между автономным оружием, ЛАО и роботами-убийцами настолько размыты, что их трудно различить. Военные лидеры всегда смогут найти лазейку в формулировке запрета и принять роботов-убийц на вооружение как оборонное автономное оружие. Они могут даже делать это неосознанно.
В будущем мы почти наверняка увидим больше оружия с искусственным интеллектом. Но это не значит, что мы должны смотреть на это сквозь пальцы. Более конкретные и подробные запреты помогут сделать наших политиков, исследователей данных и инженеров подотчетными.
Например, путем запрета:
- ИИ "черного ящика": систем, в которых пользователь не имеет никакой информации об алгоритме, кроме входов и выходов,
- ненадежных ИИ: систем, которые были плохо протестированы.
И вам не обязательно быть экспертом в области искусственного интеллекта, чтобы иметь представление о законах. Будьте в курсе новых разработок военного ИИ. Когда вы читаете или слышите об использовании ИИ в бою, спросите себя: оправдано ли это? Защищает ли он жизнь гражданских? Если нет, то присоединяйтесь к сообществам, которые работают над контролем над этими системами. Вместе у нас есть шанс не допустить, чтобы искусственный интеллект принес больше вреда, чем пользы.
Джонатан Эрскин, аспирант по интерактивному ИИ, Бристольский университет
Миранда Моубрей, преподаватель по интерактивному ИИ, Бристольский университет
Читайте Новини.LIVE!