Приостановка регулирования ИИ приведет мир к катастрофе
|
|
Регулирование ИИ выходит из моды во всем мире, поскольку страны и регионы борются за геополитическое господство в области искусственного интеллекта. ЕС не является исключением. Под растущим давлением индустрии Европейская комиссия рассматривает возможность приостановки применения Закона об ИИ, и активисты опасаются, что его положения об ИИ общего назначения (GPAI) будут размыты в новом Кодексе практики, который, как ожидается, будет опубликован в ближайшие дни.
|
|
Рассел, профессор компьютерных наук Калифорнийского университета в Беркли, после года интенсивного лоббирования присоединился к последнему открытому письму, в котором призвал ЕС "противостоять давлению" со стороны промышленности, направленному на отмену Кодекса.
|
|
"[Для промышленности] не имеет значения, что говорится в документе. Компании вообще не хотят никакого регулирования", - сказал Рассел в интервью Euractiv.
|
|
По мнению Расселла и других подписантов, включая нобелевских лауреатов Джеффри Хинтона и Дарона Аджемоглу, это путь к катастрофе. Они призывают к тому, чтобы обязательные сторонние аудиты были включены в Код, гарантируя, что компании не смогут просто утверждать, что GPAIS, такие как ChatGPT, безопасны без проверок.
|
|
|
|
Но, по словам Рассела, закон об ИИ в его самой строгой форме слишком мягок, чтобы защитить от будущих рисков. "Даже если ваша система невероятно опасна... в правилах нет ничего, что запрещало бы вам доступ к рынку", - предупредил он.
|
|
"Если у вас есть системы, которые могут взять под контроль нашу цивилизацию и планету, то штрафовать на однозначный процент от максимального мирового дохода просто нелепо", - добавил он.
|
|
Вымирание
|
|
Точка зрения Рассела противоречива.
|
|
Автор ведущего учебника по ИИ принадлежит к растущей группе первопроходцев, которые теперь верят, что технология представляет угрозу существованию. Другие отвергают этот “роковой подход к ИИ” как спекулятивную научную фантастику.
|
|
"Я думаю, это странно. Пресса продолжает называть эти [экзистенциальные ИИ] риски второстепенными... но если вы посмотрите на пятерку лучших генеральных директоров или пятерку лучших исследователей искусственного интеллекта в мире, то, за исключением Яна Лекуна, каждый из них скажет: "Нет, это реально".
|
|
Даже президент Европейской комиссии Урсула фон дер Ляйен в своей речи в 2023 году назвала ИИ "угрозой исчезновения". В мае она предупредила, что ИИ может "приблизиться к человеческому разуму" уже в следующем году.
|
|
Однако, по словам Рассела, никаких значимых действий для устранения таких рисков предпринято не было. Он опасается, что реальное регулирование будет введено только в ответ на "катастрофу размером с Чернобыль".
|
|
Он утверждает, что реальное регулирование будет включать в себя доказательства безопасности, аналогичные тем, которые требуются для атомных станций, но с более высокими порогами безопасности.
|
|
"Но вы не получите ничего похожего на математическую гарантию", - сказал Рассел. "Компании не имеют ни малейшего представления о том, как работают их системы".
|
|
На данный момент все, на что он может надеяться, - это обязательные внешние тесты в соответствии с предстоящим Кодексом практики ЕС.
|
|
"Этого было бы недостаточно... но это значительно помогло бы", - добавил он.
|
|
Источник
|