Аэрокосмический гигант Boeing, из—за которого в этом году в космосе уже оказались два астронавта НАСА, — теперь планирует создать смертоносные истребители, пилотируемые ИИ. Их предполагаемый парк самолетов-убийц "без экипажа", пилотируемых "искусственным интеллектом" и получивших название MQ-28 Ghost Bats, будет исчисляться тысячами только в США. Критики говорят, что DailyMail.com планы фирмы вызывают обеспокоенность по поводу общественной и национальной безопасности и просто "эффективного использования средств налогоплательщиков".
"Послужной список Boeing, похоже, не указывает на то, что он обязательно является лучшим для реализации такого рода проектов", - сказал один из бывших сотрудников Госдепартамента, Стивен Фельдштейн DailyMail.com.
Имея в носовой части объем примерно 53 кубических фута для хранения взаимозаменяемых полезных грузов, "Летучие мыши-призраки" Boeing в один прекрасный день смогут перевозить различные бомбы и боеприпасы, включая несколько тактических ядерных зарядов.
В настоящее время в Австралии для Королевских военно-воздушных сил Австралии (RAAF) построены и прошли летные испытания три прототипа Ghost Bat, и по крайней мере один из них доставлен в Соединенные Штаты для проведения собственных испытаний и интеграции.
Но "доказательство концепции" Boeing Ghost Bat уже успело зарекомендовать себя перед Королевскими ВВС, которые заплатили более 500 миллионов долларов за еще три MQ-28 и оплатили расходы на отечественную производственную инфраструктуру, чтобы производить больше.
Следующая цель RAAF - к 2025 году иметь в общей сложности 10 "летучих мышей-призраков" для реальных, активных военных операций, и они взяли на себя расходы на НИОКР ради привилегии однажды стать первыми, кто наделит беспилотник-убийцу проблемной аэрокосмической фирмы "ударными возможностями".
Бомбоотсек "Летучей мыши-призрака" мог бы с комфортом, если бы только гипотетически, вместить несколько боеголовок типа W80, каждая из которых в семь раз мощнее атомной бомбы мощностью 21 килотонна, взорванной над Нагасаки.
Согласно информационному бюллетеню Boeing, действующие в настоящее время рабочие прототипы Ghost Bat в Австралии и США имеют длину 38 футов, могут пролететь более 2300 миль и в настоящее время уже способны использовать "искусственный интеллект для самостоятельного полета".
В целом, по данным Потомакского офицерского клуба, более амбициозные и дорогостоящие планы Военно-воздушных сил Соединенных Штатов заключаются в том, чтобы потратить почти 9 миллиардов долларов на содержание этих футуристических истребителей, управляемых искусственным интеллектом.
Ожидается, что американские боевые машины с искусственным интеллектом будут стоить 30 миллионов долларов за беспилотник, но Пентагон по-прежнему рассматривает заявки конкурентов Boeing на окончательную версию: более длительный срок, до 2029 года и далее.
Таким образом, хотя Военно-воздушные силы США запросили в этом году сопоставимые 557 миллионов долларов на разработку и тестирование своей программы истребителей с искусственным интеллектом в рамках бюджета на 2025 финансовый год, главным призом станут многомиллиардные контракты на производство этого американского парка самолетов с искусственным интеллектом численностью 1000 самолетов.
Но на данный момент австралийские заказчики "Летучей мыши-призрака" говорят, что они сосредоточены не столько на ее смертоносности, сколько на ее полезности для воздушного шпионажа.
"Мы очень заинтересованы в том, чтобы "Призрачная летучая мышь" имела ударные возможности, - заявил в августе министр оборонной промышленности и обеспечения боеготовности Австралии Патрик Конрой. - Просто в первую очередь нам нужны разведданные, наблюдение и рекогносцировка [ISR]".
"Мы ищем немедленную поддержку для бака в отношении ISR на призрачной летучей мыши".
Фельдштейн, бывший сотрудник Госдепартамента, а ныне старший научный сотрудник программы Фонда Карнеги "Демократия, конфликты и управление", рассказал DailyMail.com он сомневается, что компания, пострадавшая от скандала, подходит для этой работы.
"Просто взглянув на ее послужной список в области новых, ультрасовременных технологий, можно сказать, что в последнее время у нее возникли проблемы с космическими полетами, но также и с другими продуктами, - сказал Фельдштейн. - У нее не очень хороший послужной список в том, что касается инновационных разработок".
За последние несколько лет несколько моделей коммерческих пассажирских самолетов Boeing столкнулись с отказами дверных затворов, возгораниями двигателей в воздухе и двумя смертельными авариями, в результате которых погибли 346 человек.
Фельдштейн, который написал статью о моральной угрозе войны с использованием искусственного интеллекта для журнала Bulletin of Atomic Scientists, отметил, что история Boeing в сфере обороны вызывает аналогичные опасения.
"Часто бывает так, что ее продукты приводят к перерасходу средств и кажутся лишь незначительно эффективными, когда дело доходит до реального достижения целей", - сказал он.
Мэри Уорхэм, директор по защите интересов оружейного подразделения некоммерческой организации Human Rights Watch, подвергла сомнению саму суть контрактов, за которые борется Boeing, производя то, что Пентагон называет "смертоносным автономным оружием".
"Вы переступаете моральную черту, передавая убийства на аутсорсинг машинам, - сказала она газете "Нью-Йорк таймс", - позволяя компьютерным датчикам, а не людям, отнимать человеческие жизни".
DailyMail.com Компания обратилась к Boeing за комментариями по поводу более широких этических аспектов истребителей, управляемых искусственным интеллектом, и, в частности, MQ-28, но ответа не получила.
В первые годы реализации программы CAA ВВС США компания Boeing уверенно опережала своих конкурентов и в один прекрасный день получила выгодную награду за создание крупнейшего в Америке парка беспилотных летательных аппаратов с искусственным интеллектом.
И в отличие от своих конкурентов — Lockheed Martin, Northrop Grumman, General Atomics и стартапа в области искусственного интеллекта Anduril - у Boeing действительно есть действующие модели своего истребителя в воздухе.
И все же, вероятно, в знак растущей репутации Boeing за неумелое управление, жадность и фатальные проблемы с безопасностью полетов, его Ghost Bat проиграл в этом году раунд финансирования CAA ВВС предложениям Anduril и производителя беспилотных летательных аппаратов General Atomics.
Роберт Гонсалес, который отслеживал перемещения ушедших в отставку чиновников Пентагона в фонды высокотехнологичного венчурного капитала (VC) для Института международных и общественных связей Уотсона, видит тревожные стимулы для создания "шумихи" о перспективах использования искусственного интеллекта на войне.
"Я не первый, кто выдвигает этот аргумент, но большая часть этой шумихи направлена на то, чтобы взвинтить цены на акции или стоимость стартапов", - сказал Гонсалес DailyMail.com.
"Таким образом, существует реальная финансовая заинтересованность в том, чтобы вызвать такого рода эйфорию или оптимизм по поводу потенциала ИИ в решении всевозможных проблем".
"Старые фирмы, например, Lockheed Martin и Boeing, - сказал он, - имеют свои собственные подразделения венчурного капитала, поэтому у них есть филиалы своих корпораций, которые в основном занимаются финансированием стартапов".
- Венчурным подразделением Boeing является HorizonX, а у HorizonX, по сути, есть портфель компаний, в который входит целый ряд стартапов в области искусственного интеллекта".
Например, случай с затратами Пентагона в размере 2 триллионов долларов на превращение истребителя-невидимки F-35 Lockheed Martin в жизнеспособную боевую силу в воздушной войне показывает, как один гигантский оборонный подрядчик может справиться с репутационным ущербом от невыполнения поставленных задач.
Он отметил, что ряд небольших, быстрорастущих и, казалось бы, независимых стартапов, финансируемых венчурными инвесторами, в этой экосистеме могут оказаться одинаково успешными как в плане сверхперспективности, так и в плане недопоставок.
По словам Гонсалеса, одной из причин этого является "эффект ореола", при котором стартапы, финансируемые оборонным или разведывательным сообществом США, могут использовать этот престиж для привлечения большего количества денег из частного сектора, как это произошло с подразделением ЦРУ по финансированию венчурного капитала In-Q-Tel.
"По данным In-Q-Tel, в среднем каждый доллар, вложенный в компанию, превращается в 28 долларов частного венчурного финансирования", - говорит Гонсалес.
Но. Со своей стороны, Фельдштейн отметил, что уже есть тревожные признаки использования искусственного интеллекта в военных действиях в текущем конфликте в Газе, где израильская система искусственного интеллекта Lavender была причастна к убийству десятков невинных гражданских лиц на каждого предполагаемого вражеского комбатанта ХАМАСА.
"На мой взгляд, это все равно, что выпустить на дорогу самоуправляемый автомобиль, не имея четкого представления о частоте его отказов, и надеясь, что все получится нормально", - сказал Фельдштейн. DailyMail.com , "но у нас нет никаких поддающихся проверке данных, на основании которых можно было бы определить, является ли эта машина безопасно для посторонних.'
"То же самое и с наведением на цель с помощью искусственного интеллекта. Вы знаете, он используется в реальных конфликтах, и, тем не менее, наше понимание того, насколько точна система, наше понимание существующих мер защиты очень ограничено".
"И, как ни странно, мы услышали несколько тревожных сообщений о том, что жертвами становятся люди, которые имеют мало общего с самой войной", - сказал он.
Фельдштейн, однако, не считает, что война в будущем без ИИ вероятна, учитывая стимулы для соперничающих национальных государств.
Но он надеется, что международные нормы в отношении использования этой технологии можно будет сохранить, опираясь на примеры времен холодной войны.
"Путь вперед состоит в том, чтобы продолжать разрабатывать эти системы, продолжать их тестировать, подтверждать их эффективность, внедрять надлежащие меры предосторожности и, надеюсь, заставить другие страны согласиться на минимальные уровни, когда дело доходит до проведения проверок", - пояснил он.
"Мы видели, как это происходит, когда речь заходит о ядерном или химическом оружии".
"Страны согласились — даже несмотря на то, что они соперничают, — что в их интересах установить базовые нормы поведения, а не просто допустить возникновения "дикого Запада", который потенциально может привести к катастрофическим последствиям", - как он выразился DailyMail.com
"Я надеюсь, что аналогичная модель поведения сохранится и в отношении оружия с искусственным интеллектом, - добавил он, - даже если мы обнаружим, что очень активно конкурируем с Китаем, Россией или Ираном".