Люди могут стать зависимыми от нового ChatGPT
|
|
OpenAI обеспокоен тем, что люди могут начать слишком сильно полагаться на ChatGPT для общения, что может привести к “зависимости” из-за нового голосового режима, который звучит как человеческий.
|
|
Это открытие появилось в четверг в отчете OpenAI о проведенной им проверке безопасности инструмента, который начал распространяться среди платных пользователей на прошлой неделе, и о модели искусственного интеллекта на большом языке, на которой он работает.
|
|
Расширенный голосовой режим ChatGPT звучит удивительно реалистично. Он реагирует в режиме реального времени, может адаптироваться к тому, что его прерывают, издает звуки, которые издают люди во время разговора, например, смех или “хм”. Он также может судить об эмоциональном состоянии собеседника по тону его голоса.
|
|
Через несколько минут после того, как OpenAI анонсировала эту функцию на мероприятии в начале этого года, ее сравнивали с цифровым ассистентом с искусственным интеллектом в фильме 2013 года “Она”, в которого влюбляется главный герой, но остается с разбитым сердцем, когда ИИ признает, что у “нее” также есть отношения с сотнями других пользователей.
|
|
Теперь OpenAI, очевидно, обеспокоен тем, что вымышленная история слишком близка к тому, чтобы стать реальностью, после того, как он заявил, что наблюдал, как пользователи общались в голосовом режиме ChatGPT на языке, “выражающем общие чувства” к инструменту.
|
|
В конечном счете, “пользователи могут устанавливать социальные отношения с ИИ, снижая свою потребность во взаимодействии с людьми, что потенциально приносит пользу одиноким людям, но, возможно, влияет на здоровые отношения”, — говорится в отчете. Он добавляет, что получение информации от бота, который говорит как человек, может привести к тому, что пользователи будут доверять инструменту больше, чем следовало бы, учитывая склонность ИИ к ошибкам.
|
|
В отчете подчеркивается масштабный риск, связанный с искусственным интеллектом: технологические компании стремятся как можно быстрее распространить среди общественности инструменты искусственного интеллекта, которые, по их словам, могут изменить наш образ жизни, работу, общение и поиск информации. Но они делают это до того, как кто-либо по-настоящему осознает, каковы эти последствия. Как и в случае со многими технологическими достижениями, у компаний часто есть одно представление о том, как можно и нужно использовать их инструменты, но пользователи предлагают целый ряд других потенциальных применений, часто с непредвиденными последствиями.
|
|
Некоторые люди уже формируют то, что они описывают как романтические отношения с чат-ботами с искусственным интеллектом, что вызывает беспокойство у экспертов по отношениям.
|
|
“На компаниях лежит большая ответственность за то, чтобы действительно действовать этично и ответственно, и сейчас все это находится на стадии экспериментов”, - сказала Лизель Шараби, профессор Университета штата Аризона, изучающая технологии и человеческое общение, в интервью CNN в июне. “Я действительно беспокоюсь о людях, которые формируют действительно глубокие связи с технологией, которая может не существовать в долгосрочной перспективе и которая постоянно развивается”.
|
|
В OpenAI заявили, что взаимодействие пользователей с голосовым режимом ChatGPT также может со временем повлиять на то, что считается нормальным в социальных взаимодействиях.
|
|
“Наши модели отличаются почтительностью, позволяя пользователям прерывать работу и ”брать микрофон" в любое время, что, хотя и ожидается от ИИ, было бы ненормативным при взаимодействии с людьми", - говорится в отчете компании.
|
|
На данный момент OpenAI заявляет, что стремится создавать ИИ “безопасно”, и планирует продолжить изучение потенциала “эмоциональной зависимости” пользователей от своих инструментов.
|
|
Источник
|