Дипфейки угрожают доверию в обществе
|
|
Голливудская звезда Брэд Питт недавно открыл конференцию SINTEF по цифровой безопасности. На самом деле, нет, он этого не делал. "Я клонировал его голос менее чем за три минуты", - говорит Вигго Теллефсен Вивестад, исследователь из SINTEF Digital.
|
|
Уивстад начал свое выступление о deepfake с самого себя на видео, но в образе Брэда, с его характерным сексуальным голосом: "Deepfake. Жутковатая штука, правда?" И это именно то, что хотел сказать исследователь.
|
|
"Deepfake станет растущей угрозой как для нас, частных лиц и сотрудников, так и для общества в целом. Технология все еще находится в зачаточном состоянии. Искусственный интеллект открывает невообразимые возможности, и его становится все труднее и труднее обнаружить.
|
|
Слово "deep" в переводе с английского deepfake происходит от "глубокого обучения", области искусственного интеллекта. На практике deepfake означает любое использование искусственного интеллекта для создания поддельного медиа-контента.
|
|
Мы видели много примеров этого в ходе избирательной кампании в США. Даже те, кто сам использовал эту технологию для создания видео-подделок, выпустили предупреждения.
|
|
|
|
Правдоподобные подделки
|
|
Клонировать чей-то голос легко, если у вас есть запись, которую можно использовать в качестве основы. То же самое касается и неподвижных изображений. Видео с глубокой подделкой более продвинуты, но уже есть очень правдоподобные поддельные видео", - говорит Уивстад.
|
|
"У Microsoft есть технология, позволяющая создавать поддельные видеоролики на основе всего лишь одного неподвижного изображения. Вы сами решаете, что должен сказать человек, и губы и лицо двигаются естественным образом".
|
Поменять местами лица очень просто
|
|
Все думают, что пользоваться фильтрами в Snapchat забавно, они могут придать нам заячьи ушки и скаредное выражение лица. Однако, когда технология используется для изменения лиц людей на фотографиях и видео, это может быть совсем не весело.
|
|
"В Южной Корее студенты публикуют порно-ролики с лицами своих сокурсников, что является серьезной проблемой. В 6 из 10 случаев киберзапугивания подвергаются несовершеннолетние. Поп-звезды и актеры по всему миру подвергаются тому же самому. Все больше приложений предлагают технологию обмена лицами. Она становится еще более совершенной, когда, просто создав текст с описанием известного человека, вы можете использовать искусственный интеллект для создания его голоса и изображений в реальном времени.
|
Преступники пользуются популярностью
|
|
Фейк и искусственный интеллект - мощные инструменты в руках преступников. Уивстад рассказывает о финансисте из Гонконга, которого обманом заставили перевести 25 миллионов долларов после видеоконференции с кем-то, кого он принял за финансового директора. Мужчина был не уверен, но убедился в этом, когда узнал нескольких коллег, присутствовавших на той же встрече, и согласился с предложением финансового директора осуществить ускоренный денежный перевод.
|
|
"Проблема заключалась в том, что все, с кем он "встречался" во время видеоконференции, были фальшивками. Мошенники клонировали как лица, так и голоса коллег этого человека. Это была сложная операция, но благодаря все более мощным цифровым инструментам становится все легче совершать сложные мошеннические действия. Вы можете заставить кого угодно сказать что угодно в любое время.
|
|
Наносящий ущерб обществу
|
|
Уивстад опасается, что deepfake может подорвать доверие к обществу.
|
|
"Во время предвыборной кампании в США голос Байдена был клонирован и использовался в робозвонках, где президент просил людей не голосовать. Позже Трамп опубликовал поддельные фотографии, на которых, по-видимому, изображены поклонники Тейлор Свифт, которые были сторонниками Трампа.
|
|
Когда доверие ослабевает, легко создать неопределенность. Трамп утверждал, что новостные статьи с изображениями толпы на собрании в Харрисе были созданы с помощью искусственного интеллекта, несмотря на неопровержимые доказательства обратного.
|
|
"У нас также есть так называемый "дивиденд лжеца" — людям легче утверждать, что реальные события являются фальшивкой, если им не нравится то, что на них изображено. Одним из известных примеров является заявление Трампа о том, что Камала Харрис преувеличила численность толпы на своем собрании.
|
|
"Кто-нибудь заметил, что Камала ЖУЛЬНИЧАЛА в аэропорту? В самолете никого не было, и она "опознала" это и показала огромную "толпу" так называемых подписчиков, НО ИХ НЕ СУЩЕСТВОВАЛО!" - заявил Трамп в социальной сети Truth.
|
|
"Страховые компании отмечают рост числа мошеннических заявлений, которые они получают. Это вызывает особую тревогу, учитывая, что мы знаем, что фальшивые новости распространяются в десять раз быстрее, чем правдивые", - говорит исследователь SINTEF.
|
Полезные советы
|
|
Уивстад предлагает несколько полезных советов по обнаружению видео и изображений с глубокой подделкой, но предупреждает, что эти советы быстро устареют.
|
|
Внимательно изучите детали на изображении или видео. Есть ли что—нибудь, что кажется вам не совсем правильным - количество пальцев, необычная форма чего-либо?
|
|
Как насчет теней и отражений? Подделку может быть легче обнаружить, если смотреть на предметы на заднем плане. Есть ли на картинке какой-либо текст и есть ли в нем смысл?
|
|
Получены ли изображения из надежного источника? Вызывает ли изображение сильные чувства? Могли ли у кого-то быть злые намерения, стоящие за использованием такого изображения?
|
|
"Что касается человеческого голоса, у нас есть преимущество в том, что норвежский - небольшой язык, особенно в том, что касается диалектов. Проще создавать глубокие подделки на основе восточно-норвежского диалекта Йонаса Гар Стере, чем на бергенском диалекте Эрны Сольберг", - говорит исследователь SINTEF.
|
Придумайте кодовые слова
|
|
Если у вас есть какие-либо сомнения в том, является ли человек, с которым вы разговариваете в режиме видеоконференции, реальным, Wivestad предлагает ввести согласованное кодовое слово или спросить о чем-то, чего мошенники, вероятно, не знают. Если у вас мало времени или сообщения вызывают сильные эмоции, возможно, вам стоит дважды подумать и проверить, реален ли человек, с которым вы разговариваете.
|
|
"Вы все еще можете избежать обмана, если будете придерживаться современных принципов критического мышления, знания средств массовой информации и сетевого этикета. Даже если в один прекрасный день глубокие подделки станут совершенными, у них все равно будут некоторые недостатки: если кто-то выдает себя за кого-то, кого вы знаете, это еще не значит, что мошенник хорошо осведомлен о ваших отношениях с ним.
|
|
"Тот, кто хочет обмануть вас, как правило, должен сам инициировать контакт, поэтому, если у вас есть какие-либо сомнения, завершите разговор и свяжитесь с этим человеком по каналам, которые вы обычно используете. Также невозможно подделать реальность, так что, возможно, вы захотите обсудить важные вопросы с глазу на глаз".
|
Технологические гиганты работают над этой проблемой
|
|
Населению в целом, компаниям, учреждениям и властям в равной степени необходимо лучше понимать угрозы, которые представляет собой deepfake. Чем больше мы знаем, тем легче их обнаружить", - говорит Уивестад.
|
|
"Такие компании, как Microsoft, Google и OpenAI, работают над этой проблемой. Однако существует конкуренция между технологиями обнаружения глубоких подделок и поиском путей обхода барьеров безопасности. Наше будущее определяют не сами инструменты, а то, как мы их регулируем и используем.
|
|
"Нам нужны институты и организации, журналисты и исследователи, которым мы можем доверять. Для таких исследовательских институтов, как SINTEF, доверие имеет решающее значение. Я думаю, что мы становимся более важными, чем когда-либо", - говорит исследователь.
|
|
Источник
|