ИИ уже развил зловещие навыки
|
|
Многие системы искусственного интеллекта (ИИ) уже умеют обманывать людей и манипулировать ими – и в будущем ситуация может "пойти по спирали", предупреждают эксперты. В последние годы использование искусственного интеллекта росло в геометрической прогрессии, но некоторые системы научились быть лживыми, даже если они были обучены быть полезными и честными, утверждают ученые. В обзорной статье команда из Массачусетского технологического института описывает риски обмана со стороны систем искусственного интеллекта и призывает правительства разработать строгие правила для решения этой проблемы как можно скорее. Исследователи проанализировали предыдущие исследования, в которых основное внимание уделялось способам распространения ИИ ложной информации с помощью заученного обмана, то есть систематическому обучению манипулированию другими людьми. Самым ярким примером обмана ИИ, который они обнаружили, была система CICERO от Meta, разработанная для игры в дипломатию завоевания мира, которая предполагает создание альянсов.
|
|
Несмотря на то, что ИИ был обучен быть "в основном честным и полезным" и "никогда намеренно не наносить удары в спину" своим союзникам-людям, данные показывают, что он играл нечестно и научился быть мастером обмана. Другие системы искусственного интеллекта продемонстрировали способность блефовать в игре в техасский холдем против профессиональных игроков-людей, имитировать атаки во время стратегической игры Starcraft II, чтобы победить оппонентов, и искажать их предпочтения, чтобы одержать верх в экономических переговорах. Хотя ИИ-системы могут обманывать в играх, это может показаться безобидным, это может привести к "прорыву в обманчивых возможностях ИИ", которые в будущем могут перерасти в более продвинутые формы обмана ИИ. Они обнаружили, что некоторые ИИ-системы даже научились обманывать тесты, предназначенные для оценки их безопасности. В одном исследовании ИИ-организмы в цифровом симуляторе "притворялись мертвыми", чтобы обмануть тест, созданный для устранения систем ИИ, которые быстро размножаются.
|
|
Это говорит о том, что ИИ может "внушать людям ложное чувство безопасности", - говорят авторы. Они предупредили, что основные краткосрочные риски, связанные с искусственным интеллектом, заключаются в том, что он облегчает людям мошенничество и вмешательство в выборы. В конечном счете, если эти системы смогут усовершенствовать этот тревожный набор навыков, люди могут потерять контроль над ними, добавили они. Первый автор Питер Парк, эксперт в области экзистенциальной безопасности ИИ, сказал: "Разработчики ИИ не имеют четкого представления о том, что вызывает нежелательное поведение ИИ, такое как обман. ‘Но, в целом, мы считаем, что обман ИИ возникает потому, что стратегия, основанная на обмане, оказалась лучшим способом успешно справиться с заданной задачей обучения ИИ. Обман помогает им достигать своих целей. "Нам, как обществу, нужно как можно больше времени, чтобы подготовиться к более совершенному обману, который могут создать будущие продукты ИИ и модели с открытым исходным кодом.
|
|
"По мере того, как возможности систем ИИ по обману становятся все более совершенными, опасность, которую они представляют для общества, будет становиться все более серьезной’. Комментируя обзор, доктор Хеба Сайлем, руководитель исследовательской группы по биомедицинскому ИИ и науке о данных, сказала: "В этом документе подчеркиваются важные соображения для разработчиков ИИ и необходимость регулирования ИИ. ‘Серьезную обеспокоенность вызывает то, что системы ИИ могут разрабатывать стратегии обмана, даже если их обучение намеренно направлено на соблюдение моральных норм. "По мере того, как модели ИИ становятся более автономными, риски, связанные с этими системами, могут быстро возрасти. - Поэтому важно повышать осведомленность и проводить обучение различных заинтересованных сторон потенциальным рискам, чтобы обеспечить безопасность систем искусственного интеллекта".
|
|
Источник
|