Грань между дипфейком и реальностью стёрта
|
Китайский технологический гигант ByteDance, владелец платформы TikTok, сегодня продемонстрировал новую систему искусственного интеллекта OmniHuman-1, которая может создавать фейковые видео, практически неотличимые от реальности. Способность искусственного интеллекта генерировать deepfake-видео вызывает одновременно восторг и мистический ужас. |
Видео, созданные OmniHuman-1, выглядят поразительно реалистично. Достаточно взглянуть на ролик ниже, демонстрирующий выступление спикера на популярной ежегодной конференции по распространению уникальных идей TED (technology, entertainment, design — технологии, развлечения, дизайн), которого в реальности не было. |
Системе OmniHuman-1 достаточно одной фотография и записи голоса, чтобы сгенерировать подобное видео. Пользователь может настраивать такие элементы, как соотношение сторон и кадрирование. Более того, ИИ способен изменять движения тела и жесты в реальных видеоматериалах. Конечно, результаты не всегда на 100 % безупречны. Некоторые позы выглядят немного необычно. Например, на этой лекции Эйнштейна, полностью сгенерированной ИИ, лицо выглядит практически идеально, но движения рук — неестественно. |
![]() |
OmniHuman-1 «просмотрела» 18 700 часов видеоданных с использованием нового подхода «omni-conditions», который позволяет модели обучаться на нескольких источниках входных данных, таких как текстовые подсказки, аудио и позы тела одновременно. Исследователи ByteDance говорят, что подобный метод обучения помогает ИИ «значительно сократить потери данных». |
Возможные применения технологии deepfake вызывают нешуточное беспокойство. За последнее время она уже не раз использовалась для дезинформации, мошенничества и других нечистоплотных целей. Так, в ходе избирательной кампании 2024 года в США было зафиксировано множество случаев распространения аудио- и видеозаписей с дипфейками для введения избирателей в заблуждение. |
В прошлом году финансовые мошенничества лишали людей миллиардов. Например, мошеннику, использовавшему ИИ, чтобы выдать себя за актёра Брэда Питта (Brad Pitt), удалось обманом убедить женщину развестись с мужем и отправить ему $850 000 якобы на лечение. |
В настоящее время сотни экспертов по этике ИИ выступают за регулирование дипфейков. Возможно, что ByteDance не стоит давать доступ к OmniHuman-1 широкой публике, так как это может привести к катастрофическим последствиям. Хотя джинна уже выпустили из бутылки и процесс внедрения ИИ во все сферы жизни, в том числе криминальную, уже не остановить. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|