Сможете ли вы отличить дипфейк от реального человека
|
|
Последние 30 лет или около того детям говорили не верить всему, что они находят в Интернете, но теперь нам, возможно, придется распространить этот урок на взрослых. Это потому, что мы находимся в эпицентре так называемого феномена «дипфейка», когда технология искусственного интеллекта (ИИ) используется для манипулирования видео и аудио таким образом, чтобы воспроизвести реальную жизнь. Чтобы показать пример прозрачности, студия искусственного интеллекта Revel.ai выпустила первое в мире «сертифицированное» видео о дипфейках. Похоже, это показывает, как Нина Шик, профессиональный консультант по искусственному интеллекту, предупреждает о том, что «грань между реальностью и вымыслом стирается». Конечно, на самом деле это не она, и видео было криптографически подписано компанией Truepic, занимающейся цифровой аутентификацией, заявив, что оно содержит контент, созданный искусственным интеллектом.
|
|
— Некоторые говорят, что истина — это отражение нашей реальности, — медленно и четко произносит аватар. «Мы привыкли определять его своими собственными чувствами. «Но что, если наша реальность меняется? Что, если мы больше не можем полагаться на наши чувства, чтобы определить подлинность того, что мы видим и здесь? «Мы находимся на заре искусственного интеллекта, и границы между реальностью и вымыслом уже стираются. «Мир, где тени ошибочно принимают за реальность, и иногда нам нужно радикально изменить нашу перспективу, чтобы увидеть вещи такими, какие они есть на самом деле». Видео заканчивается сообщением: «Этот дипфейк был создан Revel.ai с согласия Нины Шик и криптографически подписан Truepic». Дипфейки — это формы ИИ, которые используют «глубокое обучение» для манипулирования аудио, изображениями или видео, создавая гиперреалистичный, но поддельный медиаконтент.
|
|
Этот термин был придуман в 2017 году, когда пользователь Reddit разместил на форуме обработанные порновидео. Видео заменили лица знаменитостей, таких как Галь Гадот, Тейлор Свифт и Скарлетт Йоханссон, на порнозвезд без их согласия. Другим печально известным примером дипфейка или «дешевого фейка» стала грубая имитация Владимира Зеленского, который якобы сдается России в видео, широко распространенном в российских социальных сетях в прошлом году. В ролике показано, как украинский президент говорит со своей кафедры, призывая свои войска сложить оружие и смириться с вторгшимися войсками Путина. Сообразительные интернет-пользователи сразу отметили несоответствие цвета шеи и лица Зеленского, странный акцент и пикселизацию вокруг головы. Несмотря на развлекательную ценность дипфейков, некоторые эксперты предупреждают об опасностях, которые они могут представлять. В прошлом высказывались опасения по поводу того, как они использовались для создания видеороликов о сексуальном насилии над детьми и порномести, а также для политических розыгрышей.
|
|
В ноябре в правительственный законопроект о безопасности в Интернете была внесена поправка, в которой говорилось, что использование технологии дипфейков для создания порнографических изображений и видеозаписей людей без их согласия будет объявлено незаконным. Доктор Тим Стивенс, директор исследовательской группы по кибербезопасности в Королевском колледже Лондона, сказал, что дипфейк ИИ может подорвать демократические институты и национальную безопасность. Он сказал, что широкая доступность этих инструментов может быть использована такими государствами, как Россия, для «троллинга» целевых групп населения в попытке достичь внешнеполитических целей и «подорвать» национальную безопасность стран. Ранее в этом месяце для государственной газеты Китая был разработан репортер с искусственным интеллектом. Аватар мог отвечать только на заранее заданные вопросы, и ответы, которые она давала, в значительной степени продвигали линию Центрального комитета Коммунистической партии Китая (КПК).
|
|
Доктор Стивенс добавил: «У ИИ и дипфейков есть потенциал, чтобы повлиять на национальную безопасность. «Не в высоком уровне обороны и межгосударственной войны, а в общем подрыве доверия к демократическим институтам и СМИ. «Они могут быть использованы автократиями, такими как Россия, для снижения уровня доверия к этим институтам и организациям». С появлением бесплатно доступных инструментов искусственного интеллекта для преобразования текста в изображение и текста в видео, таких как DALL-E и Meta «Make-A-Video», управляемые медиа будут только распространяться. Действительно, было предсказано, что к 2025 году 90% онлайн-контента будет генерироваться или создаваться с использованием ИИ. Например, в конце прошлого месяца дипфейковая фотография Папы Франциска в огромном белом пуховике стала вирусной и заставила тысячи людей поверить в то, что она настоящая. Пользователи социальных сетей также развенчали предположительно созданное искусственным интеллектом изображение кошки с рептильными черно-желтыми пятнами на теле, которая была объявлена недавно открытым видом. Новое видео г-жи Шик помечено защищенной от несанкционированного доступа подписью, которая объявляет, что оно создано искусственным интеллектом, идентифицирует его создателя и дает отметку времени, когда оно было сделано.
|
|
|
|
Она сказала MailOnline: «Это своего рода публичное объявление, чтобы люди понимали, что контент, с которым вы взаимодействуете, не обязательно является тем, чем кажется». «Речь идет не о том, чтобы сказать людям, что это правда или ложь, а о том, как это было сделано — было ли это сделано искусственным интеллектом или нет — так что вы сами делаете выбор». «Выпуская это, мы хотим показать людям, которые могут чувствовать себя абсолютно ошеломленными, обеспокоенными или напуганными темпами изменений и ускорением контента, созданного ИИ, решения для снижения некоторых рисков, связанных с целостностью информации. «Мы также надеемся немного надавить на платформы и компании, занимающиеся генеративным искусственным интеллектом, которые знают, что вы можете подписывать контент, которые знают, что существует открытый стандарт для аутентичности контента, но они еще не приняли их. «Я думаю, что ИИ станет основной частью процесса производства почти всей цифровой информации, поэтому, если у нас не будет способа аутентифицировать эту информацию, независимо от того, сгенерирована она ИИ или нет, у нас будет очень трудно ориентироваться в цифровой информационной экосистеме. «Хотя потребители не осознали, что они имеют право понимать, откуда поступает информация, которую они переваривают, мы надеемся, что эта кампания покажет, что это возможно и что это право, которое они должны требовать».
|
|
Технология генерации подписей соответствует новому стандарту, разработанному Коалицией за происхождение и подлинность контента (C2PA). Это отраслевая организация, членами которой являются Adobe, Microsoft и BBC, которая работает над устранением распространенности вводящей в заблуждение информации в Интернете. Г-жа Шик, Truepic и Revel.ai говорят, что их видео демонстрирует, что цифровая подпись может повысить прозрачность в отношении контента, созданного ИИ. Они надеются, что это поможет устранить путаницу в отношении того, откуда взялось видео, и поможет сделать Интернет более безопасным местом. «При правильном использовании искусственный интеллект — это потрясающий инструмент для рассказывания историй и свободы творчества в индустрии развлечений, — сказал Боб де Йонг, креативный директор Revel.ai. «Мощь ИИ и скорость, с которой он развивается, — это то, чего мир еще не видел. «Все мы, включая создателей контента, должны разработать этичный, аутентифицированный и прозрачный мир создания контента, чтобы мы могли продолжать использовать ИИ там, где общество может принять его и наслаждаться им, а не страдать от него».
|
|
Источник
|