Системы ИИ с неприемлемым риском запрещены в ЕС
|
С воскресенья в Европейском союзе регулирующие органы блока могут запретить использование систем ИИ, которые, по их мнению, представляют “неприемлемый риск” или наносят вред. 2 февраля - первый крайний срок для соблюдения Закона ЕС об ИИ, всеобъемлющей нормативной базы в области ИИ, которую Европейский парламент, наконец, утвердил в марте прошлого года после нескольких лет разработки. Закон официально вступил в силу 1 августа; сейчас наступает первый из крайних сроков соблюдения. |
Конкретные положения изложены в статье 5, но в целом Закон разработан таким образом, чтобы охватывать множество вариантов использования, в которых ИИ может появляться и взаимодействовать с отдельными людьми, от потребительских приложений до физических сред. |
В соответствии с подходом блока, существует четыре основных уровня риска: (1) Минимальный риск (например, спам-фильтры по электронной почте) не будет подвергаться надзору со стороны регулирующих органов; (2) ограниченный риск, который включает чат—ботов для обслуживания клиентов, будет подвергаться легкому надзору со стороны регулирующих органов; (3) высокий риск - искусственный интеллект для рекомендации в области здравоохранения — один из примеров — будут подвергаться жесткому надзору со стороны регулирующих органов; и (4) приложения с неприемлемым риском, которые в этом месяце будут в центре внимания требований к соблюдению, будут полностью запрещены. |
![]() |
Некоторые из неприемлемых действий включают: |
- ИИ, используемый для социальной оценки (например, для составления профилей рисков на основе поведения человека). |
- ИИ, который манипулирует решениями человека подсознательно или обманным путем. |
- ИИ, который использует такие уязвимые места, как возраст, инвалидность или социально-экономический статус. |
- ИИ, который пытается предсказать, совершат ли люди преступления, основываясь на их внешности. |
- ИИ, который использует биометрические данные для определения характеристик человека, таких как его сексуальная ориентация. |
- ИИ, который собирает биометрические данные в общественных местах в режиме реального времени для целей правоохранительных органов. |
- Искусственный интеллект, который пытается определить эмоции людей на работе или в школе. |
- ИИ, который создает — или расширяет — базы данных по распознаванию лиц путем обработки изображений в Интернете или с камер видеонаблюдения. |
Компании, которые, как будет установлено, используют любое из вышеперечисленных приложений ИИ в ЕС, будут подвергнуты штрафам, независимо от того, где находятся их штаб-квартиры. Они могут получить до 35 миллионов евро (~ 36 миллионов долларов), или 7% от своего годового дохода за предыдущий финансовый год, в зависимости от того, что больше. |
Штрафы не вступят в силу в течение некоторого времени, отметил Роб Самрой, глава отдела технологий британской юридической фирмы Slaughter and May, в интервью TechCrunch. |
“Ожидается, что организации полностью выполнят требования ко 2 февраля, но... следующий важный срок, о котором компаниям необходимо знать, наступит в августе”, - сказал Самрой. “К тому времени мы будем знать, кто является компетентными органами, и штрафы и положения о правоприменении вступят в силу”. |
Предварительные взносы |
Крайний срок - 2 февраля - в некотором смысле формальность. |
В сентябре прошлого года более 100 компаний подписали Пакт ЕС об искусственном интеллекте - добровольное обязательство начать применять принципы Закона об искусственном интеллекте до его вступления в силу. В рамках Соглашения стороны, подписавшие его, в том числе Amazon, Google и OpenAI, обязались определить системы искусственного интеллекта, которые могут быть отнесены к категории повышенного риска в соответствии с Законом об искусственном интеллекте. |
Некоторые технологические гиганты, в частности Meta и Apple, отказались от участия в Соглашении. Французский ИИ-стартап Mistral, один из самых резких критиков Закона об ИИ, также решил не подписывать его. |
Это не означает, что Apple, Meta, Mistral или другие компании, которые не согласились с Соглашением, не будут выполнять свои обязательства, включая запрет на неприемлемо рискованные системы. Самрой отмечает, что, учитывая характер описанных случаев запрещенного использования, большинство компаний в любом случае не будут прибегать к подобной практике. |
“Для организаций ключевая проблема, связанная с Законом ЕС об ИИ, заключается в том, появятся ли вовремя четкие руководящие принципы, стандарты и кодексы поведения, и, что особенно важно, обеспечат ли они организациям ясность в отношении соблюдения”, — сказал Самрой. “Тем не менее, рабочие группы пока соблюдают установленные сроки по разработке кодекса поведения для ... разработчиков”. |
Возможные исключения |
Существуют исключения из нескольких запретов Закона об искусственном интеллекте. |
Например, Закон разрешает правоохранительным органам использовать определенные системы для сбора биометрических данных в общественных местах, если эти системы помогают осуществлять “целенаправленный поиск”, скажем, жертвы похищения, или помогают предотвратить “конкретную, существенную и неминуемую” угрозу жизни. Это исключение требует разрешения соответствующего руководящего органа, и в Законе подчеркивается, что правоохранительные органы не могут принимать решения, которые “оказывают неблагоприятное юридическое воздействие” на человека, исключительно на основании результатов работы этих систем. |
Закон также предусматривает исключения для систем, которые управляют эмоциями на рабочих местах и в школах, где это обосновано соображениями “медицины или безопасности”, например, для систем, предназначенных для терапевтического использования. |
Европейская комиссия, исполнительная ветвь власти ЕС, заявила, что выпустит дополнительные руководящие принципы “в начале 2025 года” после консультаций с заинтересованными сторонами в ноябре. Однако эти руководящие принципы еще не опубликованы. |
Самрой сказал, что также неясно, как другие действующие законы могут взаимодействовать с запретами Закона об искусственном интеллекте и связанными с ним положениями. Ясность может появиться не раньше конца года, по мере приближения срока вступления в силу. |
“Организациям важно помнить, что регулирование ИИ не существует изолированно”, - сказал Самрой. “Другие правовые рамки, такие как GDPR, NIS2 и DORA, будут взаимодействовать с Законом об ИИ, создавая потенциальные проблемы, особенно в связи с дублирующими требованиями к уведомлению об инцидентах. Понимание того, как эти законы сочетаются друг с другом, будет столь же важно, как и понимание самого действия искусственного интеллекта”. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|