Пентагон запускает программу для боевых ИИ-систем
|
|
Искусственный интеллект все чаще определяет военные стратегии и операции на поле боя, и Министерство обороны США стремится обеспечить безопасность и устойчивость своих боевых систем с искусственным интеллектом. Агентство перспективных исследовательских проектов в области обороны (DARPA) недавно объявило о запуске программы обеспечения эффективной надежности ИИ на поле боя (SABER). Эта программа предназначена для организации оперативного процесса совместной работы с ИИ для оценки уязвимостей в системах обороны с поддержкой ИИ.
|
|
Учитывая, что потенциальные противники постоянно ищут способы использовать слабые места в искусственном интеллекте, SABER попытается обеспечить сохранение военно-технологического превосходства Америки. Поскольку Пентагон готовится к будущему, в котором искусственный интеллект будет играть центральную роль в военных действиях, инициатива будет направлена на выявление и снижение рисков для безопасности, предотвращение потенциальных манипуляций, которые могут поставить под угрозу выполнение критически важных задач.
|
|
“Сегодня все еще существует ограниченная возможность оперативной оценки развернутых военных систем с поддержкой искусственного интеллекта на предмет наличия уязвимостей, связанных с противодействием, и ”теоретические" атаки с использованием искусственного интеллекта практически не были продемонстрированы в оперативных условиях", - говорится в специальном уведомлении, опубликованном DARPA. - В результате риски оперативной безопасности боевых систем с поддержкой искусственного интеллекта остаются в значительной степени неизвестными”.
|
|
|
|
Пентагон давно осознал потенциал ИИ для улучшения боевых действий. Автономные системы на базе ИИ могут ускорить принятие решений, повысить точность и снизить нагрузку на солдат-людей.
|
|
Использование искусственного интеллекта расширяется - от разведывательных беспилотников до автоматизированных систем обнаружения угроз, - и эти технологии внедряются в военные структуры беспрецедентными темпами.
|
|
Однако эти достижения сопряжены со значительными рисками. Модели машинного обучения могут быть уязвимы для атак противника, при которых противник манипулирует входными данными, чтобы обмануть систему.
|
|
Это может включать случаи, когда поврежденные данные искажают способность модели корректно функционировать, или использование ложных сигналов, которые обманывают системы компьютерного зрения, заставляя их неправильно идентифицировать объекты. Особую обеспокоенность вызывают атаки с целью кражи моделей, которые могут позволить противникам копировать и использовать американские системы искусственного интеллекта на поле боя.
|
|
Несмотря на обширные исследовательские усилия, предпринятые за последнее десятилетие для выявления этих рисков, практические оценки уязвимостей ИИ в реальных условиях остаются ограниченными. Пентагон в настоящее время принимает упреждающие меры для обеспечения того, чтобы развернутые системы ИИ могли противостоять реальным угрозам.
|
|
Программа SABER от DARPA отражает растущую потребность в надежной системе безопасности с использованием искусственного интеллекта. В недавнем объявлении, опубликованном в День подачи заявок, говорится, что программа призвана объединить элитную команду специалистов, которым поручено тестирование и оценка боевых систем, основанных на искусственном интеллекте.
|
|
Команда SABER AI red разработает и применит передовые методы противоборства с ИИ, кибер- и радиоэлектронной борьбы для оценки слабых мест и разработки стратегий по их устранению. Первоначально основное внимание будет уделено автономным наземным и воздушным системам, которые, как ожидается, будут развернуты в течение следующих 1-3 лет.
|
|
Чтобы усилить команду DARPA по AI-red, SABER ищет специалистов в различных областях, включая методы противодействия ИИ, методологии кибербезопасности, меры физической безопасности и интеграцию инструментов безопасности во всеобъемлющую систему совместной работы AI-red. Главной целью будет создание устойчивой модели для оценки безопасности боевых систем с искусственным интеллектом до их развертывания в боевых сценариях.
|
|
Для достижения целей программы DARPA проводит 12 марта 2025 года в Арлингтоне, штат Вирджиния, День разработчиков гибридных систем. Мероприятие, закрытое для публики, направлено на предоставление информации о технических целях программы, ответы на вопросы и поощрение сотрудничества между исследователями и лидерами отрасли.
|
|
День подачи заявок будет включать в себя три сессии: одну, предназначенную только для граждан США, другую, предназначенную только для граждан США из американских организаций, и, наконец, одну, открытую для участников из других стран.
|
|
Пентагон пока не объявил о сумме контракта по программе SABER. Однако программа будет осуществляться Управлением информационных инноваций DARPA.
|
|
Поскольку военные действия, основанные на искусственном интеллекте, становятся неизбежными, враждующие страны почти наверняка разрабатывают свои собственные возможности для компрометации оборонных технологий. Инвестируя в превентивные меры безопасности боевых систем с искусственным интеллектом, США постараются избежать потенциальных угроз, укрепляя свои позиции мирового лидера в области оборонных технологий.
|
|
В конечном счете, безопасность с помощью искусственного интеллекта распространяется далеко за пределы поля боя. Если оставить уязвимости в системах искусственного интеллекта незащищенными, они могут быть использованы в военных операциях и гражданской инфраструктуре, финансовых системах и системах обеспечения национальной безопасности.
|
|
SABER представляет собой важный шаг в объединении систем искусственного интеллекта, защищая их от потенциальных угроз и гарантируя, что технологические достижения не станут помехой.
|
|
В то время как SABER стремится повысить безопасность ИИ, роль искусственного интеллекта в военных действиях остается спорной. Существуют опасения по поводу автономности в принятии решений, связанных с летальным исходом, и потенциальных непредвиденных последствий.
|
|
В настоящее время несколько программ Министерства обороны изучают этические и юридические границы искусственного интеллекта и повышают надежность систем, задействованных в миссиях по обеспечению национальной безопасности.
|
|
Кроме того, быстрое развитие возможностей ИИ требует принятия мер безопасности, которые могут постоянно адаптироваться. Методы ведения боевых действий становятся все более изощренными, что требует постоянных исследований и разработок, чтобы не отставать от возникающих угроз. Задача заключается в выявлении уязвимостей и обеспечении устойчивости боевых систем ИИ с течением времени.
|
|
Активно выявляя и устраняя уязвимые места, вооруженные силы США делают решающий шаг к обеспечению того, чтобы будущие военные действия оставались эффективными и безопасными.
|
|
В недавней служебной записке министр обороны Питер Хегсет определил “важнейшую кибербезопасность” как один из 17 приоритетов национальной обороны “Америка прежде всего”. Продвижение Пентагона с помощью SABER отражает более широкий стратегический сдвиг, в котором учитываются как потенциал искусственного интеллекта, так и риски в военных операциях.
|
|
Поскольку искусственный интеллект продолжает переосмысливать современное поле боя, такие программы, как SABER, будут иметь решающее значение для определения устойчивости оборонного потенциала США в обозримом будущем.
|
|
Тим Макмиллан - отставной сотрудник правоохранительных органов, журналист-расследователь и один из основателей журнала The Debrief. Его статьи обычно посвящены обороне, национальной безопасности, разведывательному сообществу и темам, связанным с психологией. Вы можете подписаться на Тима в Twitter: @LtTimMcMillan. С Тимом можно связаться по электронной почте: tim@thedebrief.org или по зашифрованному электронному письму: LtTimMcMillan@protonmail.com
|
|
Источник
|