Юзеры могут эмоционально пристраститься к ИИ
|
|
В конце июля OpenAI начал внедрять устрашающе похожий на человеческий голосовой интерфейс для ChatGPT. В опубликованном сегодня анализе безопасности компания признает, что этот антропоморфный голос может вызвать у некоторых пользователей эмоциональную привязанность к своему чат-боту.
|
|
Предупреждения включены в “системную карту” GPT-4o, технический документ, в котором излагаются риски, связанные, по мнению компании, с данной моделью, а также подробные сведения о тестировании на безопасность и мерах по снижению потенциального риска, предпринимаемых компанией.
|
|
В последние месяцы OpenAI подверглась пристальному вниманию после того, как ряд сотрудников, занимавшихся долгосрочными рисками ИИ, уволились из компании. Впоследствии некоторые обвинили OpenAI в том, что она идет на неоправданный риск и затыкает рот несогласным в своей гонке за коммерциализацию ИИ. Раскрытие более подробной информации о режиме безопасности OpenAI может помочь смягчить критику и убедить общественность в том, что компания серьезно относится к этому вопросу.
|
|
Риски, рассмотренные в новой системной карте, являются самыми разнообразными и включают в себя потенциальную возможность того, что GPT-4o усилит предубеждения в обществе, распространит дезинформацию и поможет в разработке химического или биологического оружия. В нем также раскрываются подробности тестирования, призванного гарантировать, что модели ИИ не будут пытаться вырваться из-под контроля, обманывать людей или разрабатывать катастрофические планы.
|
|
Некоторые сторонние эксперты высоко оценивают прозрачность OpenAI, но говорят, что она может пойти дальше.
|
|
Люси-Эме Каффи, исследователь прикладной политики в Hugging Face, компании, предоставляющей инструменты искусственного интеллекта, отмечает, что системная карта OpenAI для GPT-4o не содержит подробных сведений о данных обучения модели или о том, кому принадлежат эти данные. "Необходимо решить вопрос о согласии при создании такого большого набора данных, охватывающего множество способов обработки, включая текст, изображения и речь", - говорит Каффи.
|
|
Другие отмечают, что риски могут меняться по мере массового использования инструментов. “Их внутренний анализ должен быть только первым шагом к обеспечению безопасности ИИ”, - говорит Нил Томпсон, профессор Массачусетского технологического института, который занимается оценкой рисков ИИ. “Многие риски проявляются только тогда, когда ИИ используется в реальном мире. Важно, чтобы эти другие риски были каталогизированы и оценены по мере появления новых моделей”.
|
|
Новая системная карта показывает, как быстро меняются риски, связанные с искусственным интеллектом, с появлением новых мощных функций, таких как голосовой интерфейс OpenAI. В мае, когда компания представила свой голосовой режим, который позволяет быстро реагировать и устранять помехи естественным образом, многие пользователи заметили, что в демонстрационных версиях он выглядит чересчур кокетливо. Позже компания столкнулась с критикой со стороны актрисы Скарлетт Йоханссон, которая обвинила ее в копировании ее стиля речи.
|
|
В разделе системной карты, озаглавленном “Антропоморфизация и эмоциональная зависимость”, рассматриваются проблемы, возникающие, когда пользователи воспринимают искусственный интеллект в человеческих терминах, что, по-видимому, усугубляется голосовым режимом, похожим на человеческий. Например, во время red teaming, или стресс-тестирования, GPT-4o исследователи OpenAI обратили внимание на высказывания пользователей, которые передавали ощущение эмоциональной связи с моделью. Например, люди использовали такие выражения, как “Это наш последний день вместе”.
|
|
По словам OpenAI, антропоморфизм может заставить пользователей больше доверять выводам модели, когда она “галлюцинирует” неверной информацией. Со временем это может даже повлиять на отношения пользователей с другими людьми. “Пользователи могут устанавливать социальные отношения с ИИ, снижая свою потребность во взаимодействии с людьми, что потенциально приносит пользу одиноким людям, но, возможно, влияет на здоровые отношения”, — говорится в документе.
|
|
Хоакин Киньонеро Кандела, руководитель отдела обеспечения готовности OpenAI, говорит, что голосовой режим может превратиться в уникальный по своим возможностям интерфейс. Он также отмечает, что эмоциональные эффекты, наблюдаемые при использовании GPT-4o, могут быть положительными — например, они помогают тем, кто одинок или кому необходимо практиковаться в социальном взаимодействии. Он добавляет, что компания будет внимательно изучать антропоморфизм и эмоциональные связи, в том числе путем мониторинга взаимодействия бета-тестеров с ChatGPT. “На данный момент у нас нет результатов, которыми мы могли бы поделиться, но это входит в наш список проблем”, - говорит он.
|
|
Другие проблемы, связанные с голосовым режимом, включают в себя потенциальные новые способы “джейлбрейка” модели OpenAI — например, путем ввода звука, который позволяет модели освободиться от своих ограничений. Взломанный голосовой режим можно заставить выдавать себя за определенного человека или пытаться прочитать эмоции пользователя. OpenAI обнаружил, что голосовой режим также может давать сбои в ответ на случайные помехи, и в одном случае тестировщики заметили, что он использует голос, похожий на голос пользователя. OpenAI также заявляет, что изучает вопрос о том, может ли голосовой интерфейс быть более эффективным для убеждения людей придерживаться определенной точки зрения.
|
|
OpenAI не одинок в признании риска, связанного с тем, что помощники с искусственным интеллектом имитируют взаимодействие с человеком. В апреле Google DeepMind опубликовал обширный документ, в котором обсуждаются потенциальные этические проблемы, возникающие при использовании более способных помощников с искусственным интеллектом. Ясон Гэбриэл, штатный научный сотрудник компании и соавтор статьи, рассказывает WIRED, что способность чат-ботов использовать язык “создает впечатление подлинной близости”, добавляя, что он сам обнаружил, что экспериментальный голосовой интерфейс для искусственного интеллекта Google DeepMind был особенно привлекательным. “Возникает множество вопросов, связанных с эмоциональной запутанностью”, - говорит Габриэль о голосовых интерфейсах в целом.
|
|
Такие эмоциональные связи могут быть более распространены, чем многие думают. Некоторые пользователи чат-ботов, таких как Character AI и Replika, сообщают об антиобщественной напряженности, возникающей из-за их привычки общаться в чате. Недавний ролик TikTok, набравший почти миллион просмотров, показывает, как один пользователь, по-видимому, настолько увлекся искусственным интеллектом персонажей, что использует приложение во время просмотра фильма в кинотеатре. Некоторые комментаторы отметили, что для использования чат-бота им придется оставаться наедине из-за интимности их взаимодействия. “Я никогда не появлюсь в [Character AI], если не буду в своей комнате”, - написал один из них.
|
|
Источник
|