ИИ представляет угрозу для человечества
|
Новое исследование, финансируемое Госдепартаментом США, призывает к временному запрету на создание продвинутого ИИ, достигшего определенного порога вычислительной мощности. Технология, утверждают ее авторы, представляет "угрозу на уровне вымирания для человеческого вида". Исследование, заказанное в рамках федерального контракта стоимостью 250 000 долларов, также предусматривает "определение чрезвычайных полномочий" исполнительной власти американского правительства "для реагирования на опасные и быстро развивающиеся инциденты, связанные с искусственным интеллектом", такие как "роевая робототехника". Обращение с компьютерными чипами высокого класса как с международной контрабандой и даже мониторинг того, как используется аппаратное обеспечение, - это лишь некоторые из радикальных мер, к которым призывает новое исследование. Отчет присоединяется к хору отраслевых, правительственных и академических голосов, призывающих к агрессивному вниманию регулирующих органов к горячо обсуждаемому и изменяющему правила игры, но социально разрушительному потенциалу искусственного интеллекта. |
В июле прошлого года агентство ООН по науке и культуре (ЮНЕСКО), например, объединило свои опасения по поводу искусственного интеллекта с не менее футуристическими опасениями по поводу технологии мозговых чипов, а-ля Neuralink Илона Маска, предупредив о "нейронаблюдении", нарушающем "психическую неприкосновенность". Хотя в новом отчете заранее, на первой странице, отмечается, что его рекомендации "не отражают точку зрения Государственного департамента Соединенных Штатов или правительства Соединенных Штатов", его авторы информируют правительство об ИИ с 2021 года. Авторы исследования, консалтинговая фирма Gladstone AI из четырех человек, которой руководят братья Джереми и Эдуард Харрис, рассказали TIME, что их предыдущие презентации о рисках ИИ часто заслушивались правительственными чиновниками, не имеющими полномочий действовать. Это изменилось с Государственным департаментом США, сообщили они журналу, потому что его Бюро международной безопасности и нераспространения конкретно занимается сдерживанием распространения катастрофических новых видов оружия. |
И в отчете Gladstone AI значительное внимание уделяется "риску вепонизации". Наступательный, продвинутый искусственный интеллект, пишут они, "потенциально может быть использован для разработки и даже осуществления катастрофических биологических, химических или кибератак или для обеспечения беспрецедентного применения оружия в робототехнике swarm". Но в отчете фигурирует второй, еще более мрачный сценарий, который они описывают как риск "потери контроля" ИИ. Они пишут: "Есть основания полагать, что они [оружейный ИИ] могут быть неконтролируемыми, если они разрабатываются с использованием современных технологий, и по умолчанию могут вести себя враждебно по отношению к людям". Другими словами, машины могут сами решить, что человечество (или какая-то часть человечества) - это просто враг, которого следует уничтожить навсегда. Генеральный директор Gladstone AI Джереми Харрис также представил аналогичные серьезные сценарии перед слушаниями, проведенными Постоянным комитетом по промышленности и технологиям в Палате общин Канады в прошлом году, 5 декабря 2023 года. |
"Не будет преувеличением сказать, что разговоры о водяных охладителях в сообществе frontier AI safety представляют искусственный интеллект ближайшего будущего как оружие массового уничтожения", - сказал Харрис канадским законодателям. "Публично и в частном порядке frontier AI labs сообщает нам, что в ближайшие несколько лет системы искусственного интеллекта будут способны проводить катастрофические атаки вредоносных программ и поддерживать разработку биологического оружия, среди многих других тревожных возможностей", - говорится в репортаже IT World Canada о его замечаниях. "Наше собственное исследование, - сказал он, - предполагает, что это разумная оценка". Харрис и его соавторы отметили в своем новом отчете Госдепартамента, что фирмы ИИ, финансируемые частными компаниями, сталкиваются с невероятным "стимулом к масштабированию", чтобы превзойти своих конкурентов, больше, чем с любым уравновешивающим "стимулом инвестировать в безопасность". Они советуют, что единственным жизнеспособным средством устранения пробелов в их сценарии является выход за пределы киберпространства с помощью строгого регулирования компьютерных чипов высокого класса, используемых для обучения систем искусственного интеллекта в реальном мире. |
В отчете Gladstone AI работа по нераспространению этого оборудования названа "наиболее важным требованием для обеспечения долгосрочной глобальной безопасности от ИИ". И это предложение не было легкомысленным, учитывая неизбежную вероятность протестов со стороны отрасли: "Это чрезвычайно сложная рекомендация, и мы потратили много времени на поиск путей обхода подобных мер", - сказали они. Один из соавторов нового доклада братьев Харрис, бывший чиновник Министерства обороны Марк Билл (Mark Beall), занимал должность начальника отдела стратегии и политики Объединенного центра искусственного интеллекта Пентагона в течение многих лет своей государственной службы. Билл, похоже, срочно реагирует на угрозы, выявленные в новом отчете: бывший глава Министерства обороны по стратегии в области искусственного интеллекта с тех пор покинул Gladstone, чтобы запустить super PAC, посвященный рискам, связанным с ИИ. PAC, получивший название "Американцы за безопасность искусственного интеллекта", стартовал в этот понедельник с заявленной надеждой на "принятие законодательства о безопасности искусственного интеллекта к концу 2024 года". |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|