Клонирования голоса человека требуется всего три секунды
|
Эксперты предупреждают, что технология искусственного интеллекта подпитывает взрыв мошенничества с клонированием голоса. Теперь мошенники могут имитировать голос жертвы, используя всего лишь трехсекундный фрагмент аудиозаписи, часто украденный из профилей в социальных сетях. Затем он используется, чтобы позвонить другу или члену семьи, убедив их, что они в беде и срочно нуждаются в деньгах. По данным специалистов по кибербезопасности McAfee, каждый четвертый британец говорит, что он или кто-то из его знакомых стал жертвой мошенничества. Это настолько правдоподобно, что большинство пострадавших признались, что в результате потеряли деньги, а около трети жертв обошлись им в более чем 1000 фунтов стерлингов. В отчете фирмы говорится, что искусственный интеллект уже «изменил правила игры для киберпреступников», поскольку инструменты, необходимые для совершения мошенничества, находятся в свободном доступе в Интернете. Эксперты, ученые и боссы со всей технологической отрасли призывают к более жесткому регулированию ИИ, опасаясь, что этот сектор выйдет из-под контроля. |
Вице-президент США Камала Харрис сегодня (в среду) встречается с руководителями Google, Microsoft и OpenAI, фирмы, стоящей за ChatGPT, чтобы обсудить, как ответственно разрабатывать ИИ. В Белом доме заявили, что они будут учитывать потребность в мерах предосторожности, которые могут снизить потенциальные риски, и подчеркивать важность этичных и заслуживающих доверия инноваций. В отчете McAfee «Искусственный самозванец» говорится, что клонирование того, как кто-то звучит, стало «мощным инструментом в арсенале киберпреступника», и найти жертву несложно. Опрос более 1000 взрослых британцев показал, что половина из них делится своими голосовыми данными в Интернете не реже одного раза в неделю в социальных сетях или голосовых заметках. Расследование выявило более дюжины инструментов для клонирования голоса ИИ, которые находятся в открытом доступе в Интернете, причем многие из них бесплатны и требуют лишь базового уровня знаний для использования. |
В одном случае всего трех секунд звука было достаточно, чтобы получить 85-процентное совпадение, при этом он без проблем воспроизвел акценты со всего мира. С учетом того, что голос каждого является речевым эквивалентом биометрического отпечатка пальца, 65% респондентов признались, что не уверены, смогут ли они отличить клонированную версию от настоящей. Более трех из десяти сказали, что ответят на голосовое сообщение или голосовую заметку якобы от друга или любимого человека, нуждающегося в деньгах, особенно если они думают, что это от партнера, ребенка или родителя. Сообщения, которые, скорее всего, вызовут ответ, — это сообщения, в которых утверждалось, что отправитель попал в автомобильную аварию, был ограблен, потерял телефон или бумажник или нуждался в помощи во время поездки за границу. Каждый двенадцатый сказал, что он лично стал жертвой какой-то голосовой аферы с искусственным интеллектом, а еще 16% сказали, что это произошло с кем-то из их знакомых. |
Цена попадания в голосовую аферу с искусственным интеллектом может быть значительной: 78% людей признают, что потеряли деньги. Около 6 процентов были обмануты на сумму от 5 000 до 15 000 фунтов стерлингов. Вонни Гамот, глава McAfee по региону EMEA: «Передовые инструменты искусственного интеллекта меняют правила игры для киберпреступников. Теперь с минимальными усилиями они могут клонировать голос человека и обманным путем заставить близкого человека отправить деньги». Она добавила: «Искусственный интеллект открывает невероятные возможности, но любая технология всегда может быть использована злонамеренно в чужих руках». «Это то, что мы наблюдаем сегодня с доступом и простотой использования инструментов искусственного интеллекта, помогающих киберпреступникам масштабировать свои усилия все более убедительными способами». |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|