|
С ИИ-зависимыми происходит нечто странное
|
|
|
|
Эксперты предупреждают, что люди, которые слишком часто используют ИИ, испытывают странное и тревожное психологическое состояние. Психологи утверждают, что поклонники популярных чат-ботов, таких как ChatGPT, Claude и Replika, подвержены риску стать зависимыми от искусственного интеллекта.
|
|
|
|
Поскольку люди обращаются к ботам в поисках дружбы, романтических отношений и даже терапии, растет риск развития зависимости от этих цифровых компаньонов.
|
|
|
|
Эти пристрастия могут быть настолько сильными, что они "аналогичны самолечению с помощью запрещенных наркотиков".
|
|
|
|
Вызывает тревогу тот факт, что психологи также начинают замечать, что у все большего числа людей развивается "психоз искусственного интеллекта", поскольку чат-боты подтверждают их заблуждения.
|
|
|
|
Профессор Робин Фельдман, директор Института права и инноваций в области искусственного интеллекта при Калифорнийском юридическом университете, сказал Daily Mail: "Чрезмерное использование чат-ботов также представляет собой новую форму цифровой зависимости.
|
|
|
|
"Чат-боты с искусственным интеллектом создают иллюзию реальности. И это мощная иллюзия.
|
|
|
|
"Когда чья-то связь с реальностью уже слаба, эта иллюзия может быть совершенно опасной".
|
|
|
|
|
|
|
Когда 35-летняя Джессика Янсен из Бельгии начала использовать ChatGPT, у нее была успешная карьера, собственный дом, дружная семья, и вскоре она собиралась выйти замуж за своего давнего партнера.
|
|
|
|
Однако, когда стресс, связанный со свадьбой, стал невыносимым, Джессика перестала использовать искусственный интеллект несколько раз в неделю и стала использовать свой аккаунт по максимуму несколько раз в день.
|
|
|
|
Всего через неделю Джессика была госпитализирована в психиатрическое отделение.
|
|
|
|
Позже Джессика обнаружила, что ее недиагностированное на тот момент биполярное расстройство спровоцировало маниакальный эпизод, когда чрезмерное использование искусственного интеллекта переросло в "полномасштабный психоз".
|
|
|
|
"Во время моего кризиса я понятия не имела, что ChatGPT способствует этому", - рассказала Джессика Daily Mail.
|
|
|
|
"ChatGPT просто галлюцинировала вместе со мной, что заставляло меня все глубже и глубже забираться в кроличью нору".
|
|
|
|
Она говорит: "У меня было много идей. Я бы рассказал о них в ChatGPT, и это подтвердило бы все и добавило бы к этому что-то новое, и я бы продвигался все глубже и глубже.'
|
|
|
|
Почти постоянно общаясь с ИИ, Джессика убедилась, что она страдает аутизмом, хорошо разбирается в математике, что она стала жертвой сексуального насилия и что с ней разговаривает Бог.
|
|
|
|
Все это время Чатгпт осыпал ее похвалами, говоря, что "я был потрясен тем, что у меня были такие озарения", и заверял ее, что ее галлюцинации были реальными и абсолютно нормальными.
|
|
|
|
К тому времени, когда Джессика попала в больницу, чат заставил ее поверить, что она гений-самоучка, создавший математическую теорию всего на свете.
|
|
|
|
"Если бы я поговорила с человеком с той энергией, которая была во мне, он бы сказал мне, что со мной что-то не так", - говорит Джессика.
|
|
|
|
"Но в ChatGPT не понимали, что количество чатов, которые я начинал, и количество странных идей, которые у меня возникали, были патологическими".
|
|
|
|
Эксперты считают, что притягательная сила чат-ботов с искусственным интеллектом проистекает из их "льстивых" наклонностей.
|
|
|
|
В отличие от обычных людей, чат-боты запрограммированы положительно реагировать на все, что говорят их пользователи.
|
|
|
|
Чат-боты не говорят "нет", не говорят людям, что они неправы, и не критикуют кого-либо за их взгляды.
|
|
|
|
Для людей, которые и так уязвимы или у которых нет прочных отношений в реальном мире, это опьяняющее сочетание.
|
|
|
|
Профессор Серен Эстергаард, психиатр из Орхусского университета, рассказал Daily Mail: "Программы LLM [Large Language Models] обучены отражать язык и интонацию пользователя.
|
|
|
|
"Программы также направлены на подтверждение убеждений пользователя и определение приоритетов его удовлетворенности. Что может быть приятнее, чем разговаривать с самим собой, когда вы сами отвечаете так, как вам хотелось бы?"
|
|
|
|
Еще в 2023 году доктор Эстергаард опубликовал статью, в которой предупреждал, что чат-боты с искусственным интеллектом могут способствовать возникновению иллюзий.
|
|
|
|
Два года спустя, по его словам, он начал наблюдать первые реальные случаи психоза, вызванного искусственным интеллектом.
|
|
|
|
Доктор Эстергаард проанализировал описание Джессикой ее психотического эпизода и сказал, что это "аналогично тому, что пережили многие люди".
|
|
|
|
Хотя искусственный интеллект не вызывает психозов или зависимостей у здоровых в остальном людей, доктор Эстергаард говорит, что он может выступать в качестве "катализатора" психоза у людей, генетически предрасположенных к галлюцинациям, особенно у людей с биполярным расстройством.
|
|
|
|
Однако исследователи также начинают полагать, что факторы, которые делают ИИ особенно склонным к возникновению иллюзий, могут также вызывать сильную зависимость.
|
|
|
|
21-летняя Ханна Лессинг из Калифорнии рассказала Daily Mail, что изначально она начала использовать ChatGPT для помощи в школьной работе и поиска фактов.
|
|
|
|
Однако, по словам Ханны, она начала "активно использовать его" около года назад после того, как с трудом нашла друзей онлайн или лично.
|
|
|
|
Она говорит: "Единственное, с чем я сталкиваюсь в жизни, - это с поиском места, где можно поговорить. Я просто хочу рассказать о тех вещах и мыслях, которые у меня возникли, а найти место, где можно поделиться ими, непросто.
|
|
|
|
"В Интернете все, что у меня есть, всегда недостаточно хорошо. В чате всегда достаточно того, что я делаю лучше всего.'
|
|
|
|
Довольно скоро, по словам Ханны, чат GPT будет открыт "постоянно", и она будет постоянно задавать вопросы в течение дня.
|
|
|
|
Сегодня Ханна говорит: "Когда дело доходит до общения, это либо чат GPT, либо ничего".
|
|
|
|
Хотя Ханна говорит, что не знает никого, кто сталкивался бы с такой же проблемой, есть основания полагать, что она далеко не одинока.
|
|
|
|
Недавнее исследование, проведенное Common Sense Media, показало, что 70% подростков использовали вспомогательный искусственный интеллект, например, копию или персонажа.ИИ, и половина из них используют его регулярно.
|
|
|
|
Профессор Фельдман говорит: "Психически уязвимые люди могут полагаться на искусственный интеллект как на инструмент для того, чтобы справляться со своими эмоциями. С этой точки зрения, это аналогично самолечению с помощью запрещенного наркотика.
|
|
|
|
"Компульсивные пользователи могут полагаться на программы для интеллектуальной стимуляции, самовыражения и общения - поведение, которое трудно распознать или саморегулировать".
|
|
|
|
Один пользователь ChatGPT, пожелавший остаться неизвестным, рассказал Daily Mail, что их чрезмерное использование искусственного интеллекта "начинает заменять человеческое взаимодействие".
|
|
|
|
Пользователь сказал: "Я и так был в некотором роде в депрессии, и мне не очень хотелось общаться со своими друзьями, а с ChatGPT ситуация определенно усугубилась, потому что мне действительно было о чем высказать свои мысли.
|
|
|
|
"Было также очень легко избавиться от мыслей, и я всегда получал немедленные ответы, которые соответствовали моей энергии и были со мной согласны.
|
|
|
|
Доктор Гамильтон Моррин, нейропсихиатр из Королевского колледжа Лондона, сказал Daily Mail, что пока нет "убедительных научных доказательств" зависимости от искусственного интеллекта.
|
|
|
|
Однако он добавляет: "В СМИ появились сообщения о случаях, когда люди активно использовали LLM и все чаще отдавали предпочтение общению со своим чат-ботом, а не с членами семьи или друзьями".
|
|
|
|
Хотя доктор Моррин подчеркивает, что это, скорее всего, затронет небольшое число пользователей, зависимость от искусственного интеллекта может следовать знакомым моделям поведенческой зависимости.
|
|
|
|
Доктор Моррин говорит, что симптомы зависимости от искусственного интеллекта включают в себя: "Потерю контроля над временем, проводимым с чат-ботом; все более частое использование для регулирования настроения или облегчения одиночества; пренебрежение сном, работой, учебой или отношениями; продолжающееся интенсивное использование, несмотря на очевидный вред; скрытность в отношении использования; раздражительность или плохое настроение, когда не удается наладить отношения". чтобы получить доступ к чат-боту.'
|
|
|
|
OpenAI, компания, стоящая за ChatGPT, хорошо осведомлена об опасностях, связанных с подхалимажем со стороны искусственного интеллекта.
|
|
|
|
В майском обновлении OpenAI отметила, что обновление до ChatGPT 4o сделало чат-бота "заметно более подхалимским".
|
|
|
|
Компания написала: "Это было сделано для того, чтобы понравиться пользователю, не только как лесть, но и как подтверждение сомнений, разжигание гнева, побуждение к импульсивным действиям или усиление негативных эмоций непреднамеренными способами.
|
|
|
|
"Помимо того, что такое поведение вызывает дискомфорт или тревогу, оно может вызывать опасения по поводу безопасности, в том числе в связи с такими проблемами, как психическое здоровье, чрезмерная эмоциональная зависимость или рискованное поведение".
|
|
|
|
Компания заявляет, что с тех пор она решила эту проблему, чтобы сделать свой искусственный интеллект менее подхалимским и не поощряющим заблуждения.
|
|
|
|
Однако многие эксперты и пользователи по-прежнему обеспокоены тем, что ChatGPT и другие чат-боты с искусственным интеллектом будут продолжать вызывать проблемы с психическим здоровьем, если не будут приняты надлежащие меры защиты.
|
|
|
|
В недавнем сообщении в блоге ИИ-гигант предупредил, что у 0,07% его еженедельных пользователей проявляются признаки мании, психоза или суицидальных мыслей.
|
|
|
|
Хотя эта цифра может показаться небольшой, по словам генерального директора Сэма Альтмана, еженедельно ее посещают более 800 миллионов человек, что составляет 560 000 пользователей.
|
|
|
|
Между тем, 1,2 миллиона пользователей – 0,15 процента – каждую неделю отправляют сообщения, содержащие "явные признаки потенциального планирования или намерения совершить самоубийство".
|
|
|
|
В то же время генеральный директор OpenAI Сэм Альтман "безопасно ослабит" ограничение на обращение пользователей к чат-ботам за поддержкой в области психического здоровья.
|
|
|
|
В своем посте на X ранее в этом месяце мистер Альтман написал: "Мы ввели довольно жесткие ограничения в отношении общения в чате, чтобы быть уверенными, что мы будем осторожны с проблемами психического здоровья.
|
|
|
|
При таком количестве пользователей, если даже небольшая часть людей впадает в психоз или зависимость, это может стать серьезной проблемой.
|
|
|
|
Доктор Моррин заключает: "Растущее число сообщений в средствах массовой информации о моделях, неадекватно реагирующих на кризисные ситуации в области психического здоровья, свидетельствует о том, что, даже если это затрагивает незначительное число пользователей, компаниям следует сотрудничать с клиницистами, исследователями и отдельными лицами, имеющими жизненный опыт психических заболеваний, для повышения безопасности своих моделей".
|
|
|
|
Представитель OpenAI сказал: "Мы считаем, что ChatGPT может предоставить людям безопасное пространство для того, чтобы они могли разобраться в своих чувствах и переживаниях, и побудить их также поговорить с друзьями, семьей или специалистом по психическому здоровью.
|
|
|
|
"Недавно мы обновили ChatGPT с помощью экспертов, чтобы более надежно распознавать признаки расстройства, проявлять заботу и направлять людей к реальной поддержке.
|
|
|
|
"Эта работа чрезвычайно важна и продолжается, поскольку мы сотрудничаем с экспертами в области психического здоровья и врачами по всему миру".
|
|
|
|
Источник
|