Мир должен относиться к рискам, связанным с искусственным интеллектом, так же серьезно, как и к климатическому кризису, и не может позволить себе откладывать ответные меры, предупредил один из ведущих деятелей технологии. Выступая в то время, когда правительство Великобритании готовится провести саммит по безопасности ИИ, Демис Хассабис сказал, что надзор за отраслью может начаться с органа, подобного Межправительственной группе экспертов по изменению климата (IPCC). Хассабис, британский исполнительный директор ИИ-подразделения Google, заявил, что мир должен действовать немедленно, чтобы справиться с опасностями этой технологии, включая помощь в создании биологического оружия и экзистенциальную угрозу, исходящую от сверхразумных систем. «Мы должны относиться к рискам, связанным с ИИ, так же серьезно, как и к другим крупным глобальным проблемам, таким как изменение климата», — сказал он. «Международному сообществу потребовалось слишком много времени, чтобы скоординировать эффективный глобальный ответ на это, и сейчас мы живем с последствиями этого. Мы не можем позволить себе такую же задержку с ИИ».
Хассабис, чье подразделение создало революционную программу AlphaFold, изображающую белковые структуры, сказал, что ИИ может стать «одной из самых важных и полезных технологий, когда-либо изобретенных». Однако он сказал Guardian, что необходим режим надзора, и правительствам следует черпать вдохновение из международных структур, таких как IPCC. «Я думаю, нам нужно начать с чего-то вроде МГЭИК, где это научно-исследовательское соглашение с отчетами, а затем наращивать его». Он добавил: «Тогда мне бы хотелось увидеть в конечном итоге эквивалент ЦЕРН по безопасности ИИ, который проводит исследования в этой области, но на международном уровне. И тогда, возможно, будет какой-то эквивалент одного дня МАГАТЭ, которое действительно проверит эти вещи». Международное агентство по атомной энергии (МАГАТЭ) — орган ООН, который содействует безопасному и мирному использованию ядерных технологий в целях предотвращения распространения ядерного оружия, в том числе посредством инспекций. Однако Хассабис заявил, что ни одна из нормативных аналогий, используемых для ИИ, не «прямо применима» к этой технологии, хотя из существующих институтов можно извлечь «ценные уроки».
На прошлой неделе Эрик Шмидт, бывший исполнительный директор Google, и Мустафа Сулейман, соучредитель DeepMind, призвали к созданию группы экспертов по искусственному интеллекту в стиле IPCC. Хотя официальные лица Великобритании поддерживают такой шаг, считается, что они считают, что его создание должно осуществляться под эгидой ООН. Хассабис сказал, что ИИ может принести «невероятные возможности» в таких областях, как медицина и наука, но признал экзистенциальные проблемы, связанные с этой технологией. Они сосредоточены на возможном развитии общего искусственного интеллекта (AGI) – систем с человеческим или вышечеловеческим уровнем интеллекта, которые могли бы уклоняться от человеческого контроля. Хассабис был одним из тех, кто подписал в мае заявление, предупреждающее, что угрозу исчезновения ИИ следует рассматривать как риск социального масштаба наравне с пандемиями и ядерной войной. «Нам следует начать думать и проводить исследования прямо сейчас. Я имею в виду вчерашний день, правда», — сказал он. «Вот почему я подписал, и многие люди подписали это письмо. Это потому, что мы хотели придать уверенности в том, что это разумная тема для обсуждения».
Некоторые инсайдеры технологической отрасли обеспокоены тем, что до появления AGI или «богоподобного» ИИ может пройти всего несколько лет – хотя существует также мнение, что опасения по поводу экзистенциальной угрозы преувеличены. Хассабис сказал, что миру еще очень далеко до разработки систем искусственного интеллекта, но «мы видим путь к этому, поэтому нам следует обсудить его сейчас». Он сказал, что нынешние системы искусственного интеллекта «не несут риска, но следующие несколько поколений могут появиться, когда у них появятся дополнительные возможности, такие как планирование, память и другие вещи… Они будут феноменальными для хороших сценариев использования, но также будут иметь риски». Саммит 1 и 2 ноября в Блетчли-парке, базе взломщиков кодов времен Второй мировой войны, в том числе Алана Тьюринга, будет посвящен угрозе передовых систем искусственного интеллекта, помогающих создавать биологическое оружие, осуществлять разрушительные кибератаки или уклоняться от человеческого контроля. Хассабис будет одним из участников вместе с руководителями ведущих компаний в области искусственного интеллекта, включая OpenAI, разработчика ChatGPT из Сан-Франциско.
Подразделение Хассабиса добилось значительных прорывов в технологиях искусственного интеллекта, таких как создание программы искусственного интеллекта AlphaGo, которая победила лучшего игрока в мире в го, китайскую настольную игру, а также новаторский проект AlphaFold, который предсказывает, как белки складываются в трехмерные формы - процесс, который проложил путь к путь к прорывам в ряде областей, включая борьбу с болезнями. Хассабис сказал, что он с оптимизмом смотрит на искусственный интеллект из-за его потенциала совершить революцию в таких областях, как медицина и наука, но необходимо найти «средний путь» для управления этой технологией. Искусственный интеллект всколыхнул политическую повестку дня после публичного выпуска в прошлом году ChatGPT, чат-бота, который стал сенсацией благодаря своей способности генерировать весьма правдоподобные текстовые ответы на набранные человеком запросы, от написания длинных академических эссе до рецептов и заявлений о приеме на работу, и даже помогая людям отзывать штрафы за парковку.
Инструменты создания изображений искусственного интеллекта, такие как Midjourney, также удивили наблюдателей, создав реалистичные изображения, включая пресловутую «фотографию» Папы Римского в пуховике, что вызвало опасения, что мошенники могут использовать инструменты искусственного интеллекта для массового производства дезинформации. Эти опасения усилили опасения по поводу потенциальной мощи моделей искусственного интеллекта следующего поколения. Хассабис, чье подразделение работает над новой моделью искусственного интеллекта под названием Gemini, которая будет генерировать изображения и текст, сказал, что он предусмотрел систему в стиле Kitemark для новых моделей. В этом году правительство Великобритании создало рабочую группу Frontier AI, целью которой является создание руководств по тестированию передовых моделей искусственного интеллекта и которая может стать эталоном для усилий по тестированию на международном уровне. Хассабис сказал: «Я могу себе представить, что в будущем у вас будет батарея из 1000 тестов, а может быть и 10 000 тестов, и тогда вы получите от этого Kitemark безопасности».