Как распознать ИИ-фейки, распространяющие дезинформацию
|
Системы искусственного интеллекта, такие как ChatGPT, обучаются на больших массивах данных создавать письменный, визуальный или аудиоконтент в ответ на запросы. При использовании реальных изображений некоторые алгоритмы могут создавать поддельные фотографии и видео, известные как глубокие подделки. |
Контент, созданный с помощью систем искусственного интеллекта (ИИ), играет важную роль в президентских выборах 2024 года. Хотя эти инструменты могут быть использованы безвредно, они позволяют злоумышленникам создавать дезинформацию быстрее и реалистичнее, чем раньше, потенциально усиливая свое влияние на избирателей. |
Внутренние и зарубежные противники могут использовать глубокие подделки и другие формы генеративного ИИ для распространения ложной информации о платформе политиков или искажения их речей, сказал Томас Скэнлон, главный научный сотрудник Института программной инженерии Университета Карнеги-Меллон и адъюнкт-профессор Колледжа информационных систем и государственной политики им. Хайнца. |
"Проблема с глубокими подделками заключается в том, насколько они могут быть правдоподобными и насколько проблематично отличить их от подлинных кадров", - сказал Скэнлон. |
![]() |
По данным Associated Press, избиратели видели больше нелепого контента, сгенерированного искусственным интеллектом, такого как фотография Дональда Трампа, на которой он изображен верхом на льве, чем поток гиперреалистичных фейков, полных лжи. Тем не менее, Скэнлон обеспокоен тем, что избиратели будут подвержены более вредному информационному контенту в День выборов или незадолго до него, например, видеороликам, на которых работники избирательных участков сообщают, что открытое место для голосования закрыто. |
По его словам, такого рода дезинформация может помешать избирателям проголосовать, поскольку у них будет мало времени для исправления ложной информации. В целом, обман, вызванный искусственным интеллектом, может еще больше подорвать доверие избирателей к демократическим институтам страны и избранным должностным лицам, считают в университетском центре технологий и общества Block, расположенном в Колледже информационных систем и государственной политики Хайнца. |
"Людей просто постоянно бомбардируют информацией, и потребитель сам должен определить: какова ее ценность, а также насколько он в ней уверен? И я думаю, что именно с этим у отдельных людей могут возникнуть проблемы", - сказал Рэндалл Тржечак, директор магистерской программы Хайнц-колледжа по политике и управлению информационной безопасностью (MSISPM). |
Развитие генеративного ИИ стремительно растет |
По словам Скэнлона, в течение многих лет люди распространяли дезинформацию, манипулируя фотографиями и видео с помощью таких инструментов, как Adobe Photoshop. Такие подделки легче распознать, и злоумышленникам сложнее воспроизвести их в больших масштабах. Однако генеративные системы искусственного интеллекта позволяют пользователям быстро и легко создавать контент, даже если у них нет современных компьютеров или программного обеспечения. |
По словам преподавателей колледжа Хайнца, люди попадаются на подделки по разным причинам. Если зритель пользуется смартфоном, он, скорее всего, обвинит в плохом качестве подделки плохую сотовую связь. Если глубокая подделка отражает уже сложившееся у зрителя представление — например, о том, что политический кандидат сделал бы изображенное заявление, — зритель с меньшей вероятностью обратит на нее внимание. |
У большинства людей нет времени проверять каждое видео, которое они видят, а это означает, что глубокие подделки могут со временем посеять сомнения и подорвать доверие, пишет в своем заявлении Ананья Сен, доцент кафедры информационных технологий и менеджмента в колледже Хайнца. Он обеспокоен тем, что прямые трансляции подсчета голосов, хотя и призванные повысить прозрачность, могут быть использованы для фальсификаций. |
Как только ложная информация появляется, остается мало возможностей исправить ее и загнать джина обратно в бутылку. |
По словам Ари Лайтмана, профессора цифровых медиа и маркетинга в колледже Хайнца, в отличие от предыдущих средств создания дезинформации, генеративный ИИ также можно использовать для отправки индивидуальных сообщений онлайн-сообществам. Если один из членов сообщества случайно поделится контентом, другие могут поверить в его содержание, потому что доверяют человеку, который им поделился. |
Злоумышленники "изучают модели поведения потребителей и то, как люди взаимодействуют с технологиями, надеясь, что кто-то из них нажмет на какую-то информацию, которая может привести к распространению вирусной дезинформации", - сказал Лайтман. |
Трудно разоблачить тех, кто распространяет дезинформацию, генерируемую искусственным интеллектом. Создатели могут использовать виртуальные частные сети и другие механизмы, чтобы скрыть свои следы. По словам Лайтмана, страны, имеющие враждебные отношения с США, скорее всего, используют эту технологию в качестве оружия, но он также обеспокоен отдельными лицами и террористическими группами, которые могут действовать незаметно. |
Что нужно знать избирателям |
Люди должны доверять своей интуиции и пытаться проверить видео, которые, по их мнению, могут быть подделками, сказал Скэнлон. "Если вы видите видео, которое вызывает у вас некоторые сомнения в его подлинности, вам следует признать эти сомнения", - сказал он. |
По словам Скэнлона, вот несколько признаков того, что видео может быть подделкой.: |
- При монтаже были сделаны небольшие сокращения: современные системы искусственного интеллекта в значительной степени не способны создавать длинные видео-подделки с одной точки зрения. Угол обзора видео может меняться каждые несколько секунд, или объект съемки может быть показан с нескольких сторон в прерывистой последовательности. |
- Несоответствия в освещении: В видео с глубокой подделкой часто присутствуют тени, которые, как это ни странно, исходят более чем с одного направления или присутствуют только на части видео. Часто освещение на видео мерцает. |
- Несовпадающие реакции: На видео может быть изображено, как субъект с невозмутимым видом произносит что-то шокирующее, или наоборот. Если на видео есть другие люди, их реакция может не соответствовать сообщению или тону субъекта. |
- Различия в цвете кожи или отсутствие симметрии лица: зрители могут заметить значительные различия в цвете кожи объекта съемки, особенно если в кадр попадают их кисти рук. Возможно, у объекта съемки уши или глаза выглядят непропорционально друг другу. |
- Проблемы с очками и серьгами: Зрители могут заметить, что у объекта съемки отсутствуют или не подходят друг другу серьги или очки. |
The Block Center подготовил руководство, которое поможет избирателям ориентироваться в генеративном ИИ в политической кампании. Руководство призывает избирателей задавать кандидатам вопросы об использовании ими ИИ и отправлять своим избранным представителям письма, в которых они поддерживают ужесточение правил в области ИИ. |
"Информированный избиратель должен уделять ровно столько времени, сколько ему нужно, чтобы быть уверенным в информации, которая используется в процессе принятия решений", - сказал Тржечак. |
Законодательный ландшафт |
Не существует всеобъемлющего федерального законодательства, регулирующего фейки, и несколько законопроектов, направленных на защиту выборов от угроз ИИ, зашли в тупик в Конгрессе. Некоторые штаты приняли законы, запрещающие создание или использование фейков в злонамеренных целях, но не все они напрямую связаны с вмешательством в выборы. |
Сенат штата Пенсильвания представил законопроект, который предусматривает гражданско-правовое наказание для тех, кто распространяет предвыборную рекламу, содержащую созданные с помощью искусственного интеллекта изображения политических кандидатов, при условии, что суды смогут доказать злой умысел. Законопроект еще не вынесен на голосование. |
По словам Скэнлона, существующих законов недостаточно для регулирования использования "глубоких подделок". Но, добавил он, скрытый характер киберпреступлений означает, что любое федеральное регулирование, скорее всего, будет трудно обеспечить. |
"Правоприменение, вероятно, будет выглядеть как периодическая демонстрация людям и группам примеров того, как действовать в качестве сдерживающего фактора", - сказал Скэнлон. |
Помимо внедрения и обеспечения соблюдения нормативных актов, Лайтман сказал, что стране необходимо решить проблему политической поляризации и снижения доверия общества к институтам, которые позволяют распространению дезинформации. |
"Все, на что мы обращаем внимание, - это либо сарказм, либо абсолютно лживая пропаганда. И мы не доверяем друг другу", - сказал он. "Мы должны вернуться к пониманию обществом того, как то, с чем мы сталкиваемся, подрывает доверие. Если мы сможем это понять, возможно, нам удастся предпринять шаги, чтобы обратить ситуацию вспять". |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|