ИИ будет невозможно контролировать
|
|
Эксперты предупреждают, что однажды искусственный интеллект будет практически невозможно контролировать даже ученым. Группа исследователей, изучающая возможности ИИ еще в 2021 году, изучила, как мы сможем заставить сверхумных роботов реагировать на человеческие прихоти, и обнаружила, что это будет почти непреодолимая задача. «Сверхразум представляет собой принципиально иную проблему, чем те, которые обычно изучаются под лозунгом «этики роботов», — писала команда в то время. «Это связано с тем, что сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, потенциально непостижимых для людей, не говоря уже о том, чтобы их можно было контролировать». Исследование было вдохновлено проблемой остановки Алана Тьюринга из 1936 года. Проблема заключается в том, чтобы узнать, найдет ли компьютерная программа ответ на проблему и остановится или войдет в непрерывный цикл, пытаясь найти его. Расчеты Тьюринга показали, что, хотя люди могут решить это для некоторых программ, невозможно найти способ определить результат для каждой возможной программы, которая когда-либо могла быть написана.
|
|
ИИ, с другой стороны, теоретически может хранить в своей памяти все возможные компьютерные программы одновременно, учитывая, насколько они разумны. Управление сверхчеловеческим интеллектом требует от нас понимания всех возможных сценариев, с которыми ИИ может столкнуться при выполнении конкретной команды, что потребует разработки симуляции того интеллекта, который мы можем проанализировать. Но из-за наших собственных человеческих ограничений даже самые сообразительные ученые не могут создать симуляцию, отображающую все возможные результаты. Дэвид Нилд, пишущий для издания ScienceAlert, объяснил: «Такие правила, как «не причинять вреда людям», не могут быть установлены, если мы не понимаем, какие сценарии может предложить ИИ. «Как только компьютерная система работает на уровне выше возможностей наших программистов, мы больше не можем устанавливать ограничения». Ученый-компьютерщик Ияд Рахван из Института человеческого развития им. Макса Планка в Германии добавил: «По сути, это делает алгоритм сдерживания непригодным для использования».
|
|
Добавьте к этому тот факт, что это исследование было проведено два года назад — когда ИИ был более примитивным, чем сегодня — у нас могла возникнуть проблема, объяснил Нилд. Пока кажется, что единственная альтернатива обучению ИИ этичному поведению в соответствии с человеческими стандартами и не разрушить цивилизацию — это наложить ограничения на то, как далеко люди могут его подтолкнуть. Несколько экспертов призвали к ужесточению правил использования ИИ, пока мы точно не выясним, на что он способен. Ранее в этом году технические тяжеловесы, такие как Илон Маск и соучредитель Apple Стив Возняк, подписали открытое письмо с просьбой к человечеству приостановить наши эксперименты с искусственным интеллектом как минимум на шесть месяцев. В письме, озаглавленном «Приостановить гигантские эксперименты с искусственным интеллектом», говорилось: «Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми».
|
|
Источник
|