Новая книга предвосхищает мир военных роботов
|
|
В нашем цифровом мире зверства войны трудно игнорировать. Пожары в Европе (Украина-Россия), на Ближнем Востоке (Израиль-Хамас) и в других местах передают изображения смерти и разрушений так быстро, как наши каналы могут их обработать. По мере развития искусственного интеллекта оружие войны становится все более способным убивать людей без значимого человеческого контроля, что поднимает тревожные вопросы о том, как будут вестись сегодняшние и завтрашние войны, и о том, как автономные системы вооружения могут ослабить ответственность, когда дело доходит до потенциальных нарушений. международного права, которые сопровождают их развертывание. Дениз Гарсия, профессор политологии и международных отношений, обобщает эти мрачные реалии в новой книге на эту тему под названием «Военная гонка ИИ: общее хорошее управление в эпоху искусственного интеллекта». В книге исследуются проблемы «создания структуры глобального управления», которая предвидит мир безудержных систем вооружения искусственного интеллекта на фоне ухудшения международного права и норм — действительно, мир, все более напоминающий тот, в котором мы сейчас живем.
|
|
В беседе с Northeastern Global News Гарсия, который входил в Международную группу по регулированию автономного оружия с 2017 по 2022 год, отметил, что военное применение ИИ уже применялось в продолжающихся конфликтах в Европе и на Ближнем Востоке — одном из самых известных конфликтов. примером может служить израильский «Железный купол». Действительно, возможность того, что смертоносные автономные системы вооружения могут вскоре быть развернуты на поле боя, представляет собой острую необходимость предпринять коллективные действия в форме политики, договоров и конкретных запретов на технологии, говорит она. «Мир должен объединиться и создать новые глобальные общественные блага, которые, я считаю, должны включать в себя структуру управления ИИ, а также общесогласованные правила использования ИИ в вооруженных силах», — говорит Гарсия. Гарсия говорит, что ускорение развития технологий искусственного интеллекта имеет последствия, выходящие за рамки поведения на поле боя, а также влияет на национальную безопасность. В 2021 году Комиссия национальной безопасности США по искусственному интеллекту призвала США продолжить быстрое развитие искусственного интеллекта для защиты национальной безопасности и сохранения конкурентоспособности с Россией и Китаем.
|
|
Но Гарсия утверждает, что ускорение военизированного ИИ как таковое не является правильным подходом и рискует усилить нестабильность и без того крайне нестабильной международной системы. Она утверждает, что доклад комиссии США «возродил» образ мышления и стратегии времен холодной войны, которые привели к накоплению более 70 000 единиц ядерного оружия в тот период. Вместо этого она говорит, что США должны продолжать добиваться сокращения ядерных арсеналов, одновременно разрабатывая стандарты, которые позволят людям твердо контролировать военные и боевые решения - случай, который она подробно излагает в книге. «Проще говоря, ИИ не следует доверять принятие решений о войне», — говорит Гарсия. Многие ученые согласны с этим. Около 4500 исследователей ИИ и робототехники коллективно заявили, что ИИ не должен принимать решения в отношении убийства людей — позиция, отмечает Гарсия, соответствует руководящим принципам Европейского парламента и постановлениям Европейского Союза. Однако официальные лица США настаивают на создании нормативной парадигмы тщательного тестирования и проектирования, позволяющей людям использовать технологию искусственного интеллекта, «чтобы принять решение об убийстве».
|
|
«На бумаге это выглядит хорошо, но в реальности этого очень трудно достичь, поскольку алгоритмы вряд ли смогут справиться с огромной сложностью того, что происходит на войне», — говорит Гарсия. Оружейные системы искусственного интеллекта не только угрожают нарушить нормы ответственности в соответствии с международным правом, но и значительно усложняют судебное преследование за военные преступления из-за проблем, связанных с присвоением «статуса комбатанта» военным технологиям искусственного интеллекта, говорит Гарсия. «Международное право – и законы в целом – стали ориентированными на человека», – говорит она. «Когда вы добавляете в уравнение робота или программное обеспечение, кто будет нести ответственность?» Она продолжает: «Трудности с распределением ответственности ускорят дегуманизацию войны. Когда люди сведутся к данным, человеческое достоинство исчезнет». Существующие военные приложения ИИ и квазиИИ уже произвели фурор в оборонных кругах. Согласно одному источнику, одно из таких приложений позволяет одному человеку управлять несколькими беспилотными системами, такими как рой дронов, способных атаковать с воздуха или под водой. Во время войны на Украине барражирующие боеприпасы – беспилотные самолеты, использующие датчики для идентификации целей, или «дроны-убийцы» – вызвали споры о том, насколько точно агенты человека контролируют решения о выборе цели.
|
|
Источник
|