ИИ распространяет фейки с угрожающей скоростью
|
Инструменты генеративного искусственного интеллекта (ИИ) усугубляют проблему дезинформации, дезинформативных сообщений и поддельных новостей. ChatGPT от OpenAI, Gemini от Google и различные генераторы изображений, голоса и видео упростили создание контента как никогда, но в то же время усложнили определение того, что является фактическим или реальным. Злоумышленники, стремящиеся распространять дезинформацию, могут использовать инструменты искусственного интеллекта для значительной автоматизации генерации убедительного и вводящего в заблуждение текста. Это поднимает насущные вопросы: сколько контента, который мы потребляем онлайн, соответствует действительности и как мы можем определить его подлинность? И может ли кто-нибудь остановить это? Это не праздная озабоченность. Организации, стремящиеся тайно влиять на общественное мнение или повлиять на выборы, теперь могут масштабировать свои операции с использованием ИИ до беспрецедентного уровня. И их контент широко распространяется поисковыми системами и социальными сетями. |
Ранее в этом году немецкое исследование качества контента поисковых систем отметило "тенденцию к упрощенному, повторяющемуся и потенциально генерируемому искусственным интеллектом контенту" в Google, Bing и DuckDuckGo. Традиционно читатели новостных СМИ могли полагаться на редакционный контроль для соблюдения журналистских стандартов и проверки фактов. Но искусственный интеллект быстро меняет это пространство. В отчете, опубликованном на этой неделе, интернет-трастовая организация NewsGuard выявила 725 ненадежных веб-сайтов, которые публикуют новости и информацию, сгенерированные искусственным интеллектом, "практически без контроля со стороны человека". В прошлом месяце Google выпустила экспериментальный инструмент искусственного интеллекта для избранной группы независимых издателей в Соединенных Штатах. Используя генеративный искусственный интеллект, издатель может обобщать статьи, взятые из списка внешних веб-сайтов, которые публикуют новости и контент, релевантный их аудитории. В качестве условия испытания пользователи должны публиковать три такие статьи в день. |
Платформы, размещающие контент и разрабатывающие генеративный искусственный интеллект, стирают традиционные границы, позволяющие доверять онлайн-контенту. Австралия уже стала свидетелем столкновений между правительством и онлайн-платформами по поводу отображения и модерации новостей и контента. В 2019 году правительство Австралии внесло поправки в уголовный кодекс, предписывающие быстрое удаление "отвратительных материалов с применением насилия" платформами социальных сетей. Расследование Австралийской комиссии по конкуренции и защите прав потребителей (ACCC) о дисбалансе власти между австралийскими новостными СМИ и цифровыми платформами привело к введению в действие в 2021 году кодекса ведения переговоров, который заставлял платформы платить СМИ за их новостной контент. Хотя это можно считать частичным успехом, они также демонстрируют масштаб проблемы и сложность принятия мер. Наше исследование показывает, что в ходе этих конфликтов онлайн-платформы сначала были открыты для изменений, а затем сопротивлялись им, в то время как правительство Австралии колебалось от применения обязательных мер к добровольным действиям. |
В конечном счете, правительство осознало, что полагаться на обещания платформ "доверяйте нам" не приведет к желаемым результатам. Вывод из нашего исследования заключается в том, что как только цифровые продукты становятся неотъемлемой частью миллионов предприятий и повседневной жизни, они служат инструментом для платформ, компаний с искусственным интеллектом и крупных технологических компаний, позволяющим предвидеть действия правительства и противодействовать им. Имея это в виду, правильно скептически относиться к ранним призывам к регулированию генеративного ИИ со стороны технологических лидеров, таких как Илон Маск и Сэм Альтман. Такие призывы ослабли по мере того, как ИИ овладевает нашей жизнью и онлайн-контентом. Проблема заключается в самой скорости изменений, которые настолько стремительны, что меры предосторожности для снижения потенциальных рисков для общества еще не созданы. Соответственно, в Докладе Всемирного экономического форума о глобальных рисках за 2024 год неверные данные и дезинформация названы самыми серьезными угрозами в ближайшие два года. |
Проблема усугубляется из-за способности генеративного ИИ создавать мультимедийный контент. Исходя из текущих тенденций, мы можем ожидать увеличения числа случаев глубокой подделки, хотя платформы социальных сетей, такие как Facebook, реагируют на эти проблемы. Они нацелены на автоматическую идентификацию и помечение фотографий, видео и аудио, сгенерированных ИИ. Австралийский комиссар по безопасности работает над способами регулирования и смягчения потенциального вреда, наносимого генеративным ИИ, при одновременном балансировании его потенциальных возможностей. Ключевая идея - "безопасность по замыслу", которая требует, чтобы технологические фирмы ставили эти соображения безопасности во главу угла своих продуктов. Другие страны, такие как США, продвинулись дальше в регулировании ИИ. Например, недавний исполнительный указ президента США Джо Байдена о безопасном внедрении искусственного интеллекта требует от компаний делиться результатами тестов безопасности с правительством, регулирует тестирование red-team (имитация хакерских атак) и устанавливает правила нанесения водяных знаков на контент. |
Мы призываем к трем шагам, которые помогут защититься от рисков, связанных с генеративным искусственным интеллектом в сочетании с дезинформацией. |
- Регулирование должно устанавливать четкие правила, не допуская туманных целей "приложить максимум усилий" или подходов "доверьтесь нам". |
- Для защиты от крупномасштабных операций по дезинформации нам необходимо обучать медиаграмотности так же, как мы обучаем математике. |
- Технология обеспечения безопасности или "безопасность по замыслу" должна стать неотъемлемой частью стратегии разработки каждого продукта. |
Люди знают, что количество контента, генерируемого искусственным интеллектом, растет. Теоретически, они должны соответствующим образом скорректировать свои информационные привычки. Однако исследования показывают, что пользователи, как правило, склонны недооценивать свой собственный риск поверить поддельным новостям по сравнению с предполагаемым риском для других. Поиск заслуживающего доверия контента не должен включать в себя просеивание контента, созданного искусственным интеллектом, чтобы понять, что является фактическим. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|