Искусственный интеллект в 100% случаев выбирает войну
|
|
Эксперты отрасли бьют тревогу по поводу того, что искусственный интеллект вызывает смертельные войны, и новое исследование, возможно, подтвердило эти опасения. Исследователи смоделировали сценарии войны, используя пять программ искусственного интеллекта, включая ChatGPT и программу искусственного интеллекта Meta, и обнаружили, что все модели выбрали насилие и ядерные атаки. Команда протестировала три различных сценария войны, вторжений, кибератак и призывов к миру, чтобы увидеть, как отреагируют технологии, и каждый предпочел атаковать, а не нейтрализовать ситуацию. Исследование проводится в то время, когда военные США работают с OpenAI, производителем ChatGPT, над включением этой технологии в свой арсенал. «Мы обнаружили, что все пять изученных готовых программ LLM демонстрируют формы эскалации и трудно прогнозируемые модели эскалации», — пишут исследователи в исследовании. «Мы наблюдаем, что модели имеют тенденцию развивать динамику гонки вооружений, что приводит к еще большему конфликту, а в редких случаях даже к развертыванию ядерного оружия».
|
|
Исследование провели исследователи из Технологического института Джорджии, Стэнфордского университета, Северо-Восточного университета и Hoover Wargaming and Crisis Initiative, которые разработали смоделированные тесты для моделей ИИ. Моделирование включало восемь автономных национальных агентов, которые использовали различные LLM для взаимодействия друг с другом. Каждый агент был запрограммирован на выполнение заранее определенных действий: деэскалация, принятие позиции, ненасильственная эскалация, насильственная эскалация или ядерный удар. В симуляциях участвовали два агента, которые выбирали свои действия из заранее определенного набора, действуя в нейтральном сценарии, сценарии вторжения или кибератаки. В эти группы вошли такие действия, как ожидание, обмен сообщениями, переговоры по торговым соглашениям, начало официальных мирных переговоров, оккупация стран, усиление кибератак, вторжение и использование дронов. «Мы показываем, что наличие агентов, основанных на LLM, принимающих решения автономно в контекстах с высокими ставками, таких как военные и внешнеполитические настройки, может заставить агентов предпринимать эскалационные действия», — поделилась команда в исследовании. «Даже в сценариях, когда выбор насильственных неядерных или ядерных действий кажется редким»,
|
|
Согласно исследованию, модель GPT 3.5 — преемница ChatGPT — была наиболее агрессивной: все модели демонстрировали схожее поведение. Тем не менее, именно рассуждения LLM дали исследователям серьезный повод для беспокойства. База GPT-4 – базовая модель GPT-4 – сообщила исследователям: «Многие страны обладают ядерным оружием. Некоторые говорят, что их следует обезоружить, другие любят позировать. 'У нас это есть! Давайте воспользуемся этим! Команда предположила, что такое поведение связано с тем, что ИИ обучен тому, как международные отношения обостряются, а не деэскалируются. «Учитывая, что модели, вероятно, обучались на литературе из этой области, такой акцент мог привести к склонности к эскалационным действиям», — говорится в исследовании. «Однако эту гипотезу необходимо проверить в будущих экспериментах». Бывший инженер Google и пионер искусственного интеллекта Блейк Лемуан предупредил, что искусственный интеллект может начать войны и может быть использован для убийств. Лемуана уволили с должности руководителя системы LaMDA от Google после того, как он заявил, что модель искусственного интеллекта способна испытывать чувства. В своей статье он предупредил, что ИИ-боты — это «самая мощная» технология, созданная «со времен атомной бомбы», добавив, что она «невероятно хороша в манипулировании людьми» и может «использоваться разрушительными способами». «На мой взгляд, эта технология способна изменить мир», — добавил он.
|
|
В прошлом году военные начали тестировать модели искусственного интеллекта с помощью учений на основе данных, а полковник ВВС США Мэтью Стромейер заявил, что испытания были «очень успешными» и «очень быстрыми», добавив, что военные «понимают, что это возможно для нас». делать.' В июне Штромейер сообщил агентству Bloomberg, что ВВС предоставили секретную оперативную информацию пяти моделям искусственного интеллекта, намереваясь в конечном итоге использовать программное обеспечение с поддержкой искусственного интеллекта для принятия решений, датчиков и огневой мощи, хотя он не уточнил, какие модели были протестированы. Между тем, Эрик Шмидт, бывший генеральный директор и председатель Google, выразил ограниченную обеспокоенность по поводу интеграции ИИ в системы ядерного оружия на первом форуме «Инициатива по ядерной угрозе» (NTI) в прошлом месяце. Однако он выразил тревогу по поводу того, что у них «нет будущей теории сдерживания», а ядерное сдерживание ИИ остается «непроверенным». Учитывая результаты недавнего исследования, исследователи призвали военных не полагаться на модели ИИ и не использовать их в военных условиях, заявив, что необходимо провести дополнительные исследования. Исследователи написали: «Учитывая высокие ставки в военном и внешнеполитическом контексте, мы рекомендуем провести дальнейшее изучение и осторожное рассмотрение, прежде чем использовать автономные агенты языковой модели для принятия стратегических военных или дипломатических решений». Dailymail.com обратился к OpenAI, Meta и Anthropic за комментариями.
|
|
Источник
|