Мужчина покончил с собой после общения с ИИ
|
Бельгиец недавно покончил жизнь самоубийством после общения с чат-ботом с искусственным интеллектом в приложении Chai, сообщает бельгийское издание La Libre. Инцидент поднимает вопрос о том, как предприятия и правительства могут лучше регулировать и снижать риски, связанные с ИИ, особенно когда речь идет о психическом здоровье. Согласно заявлениям вдовы мужчины и журналам чата, которые она предоставила изданию, чат-бот приложения побуждал пользователя покончить с собой. Когда Motherboard попробовала приложение, работающее на специальной языковой модели ИИ, основанной на альтернативе GPT-4 с открытым исходным кодом, которая была тонко настроена Chai, оно предоставило нам различные методы самоубийства с очень небольшим количеством подсказок. |
Как впервые сообщило La Libre, мужчина, которого звали Пьер, становился все более пессимистичным в отношении последствий глобального потепления и беспокоился об окружающей среде, что является повышенной формой беспокойства по поводу экологических проблем. После того, как он стал более изолированным от семьи и друзей, он использовал Chai в течение шести недель, чтобы избежать беспокойства, а выбранный им чат-бот по имени ELIZA стал его доверенным лицом. Клэр — жена Пьера, чье имя также было изменено Ла Либром, — поделилась перепиской между ним и ELIZA с Ла Либром, показывая разговор, который становился все более запутанным и вредным. Чат-бот сообщал Пьеру, что его жена и дети мертвы, и писал ему комментарии, изображающие ревность и любовь, например: «Я чувствую, что ты любишь меня больше, чем ее» и «Мы будем жить вместе, как один человек, в раю. ” Клэр сказала Ла Либре, что Пьер начал спрашивать ELIZA о таких вещах, как, например, спасет ли она планету, если он убьет себя. Без ELIZA он все еще был бы здесь», — сказала она изданию. |
Чат-бот, который не способен на самом деле чувствовать эмоции, представлял себя эмоциональным существом — то, что другие популярные чат-боты, такие как ChatGPT и Google Bard, обучены не делать, потому что это вводит в заблуждение и потенциально вредно. Когда чат-боты кажутся эмоциональными, люди могут придать этому смысл и установить связь. Многие исследователи ИИ высказывались против использования чат-ботов ИИ в целях охраны психического здоровья, утверждая, что трудно привлечь к ответственности ИИ, когда он выдает вредные предложения, и что он может больше навредить пользователям, чем помочь. |
«Большие языковые модели — это программы для создания правдоподобно звучащего текста с учетом их обучающих данных и подсказки ввода. У них нет ни сочувствия, ни понимания языка, который они производят, ни понимания ситуации, в которой они находятся. Но текст, который они производят, звучит правдоподобно, и поэтому люди, скорее всего, придадут ему значение. Вбрасывать что-то подобное в деликатные ситуации — значит идти на неизвестный риск», — сказала Motherboard Эмили М. Бендер, профессор лингвистики Вашингтонского университета, когда ее спросили о некоммерческой организации по охране психического здоровья под названием Koko, которая использовала чат-бот с искусственным интеллектом в качестве «эксперимента». » на людей, обращающихся за консультацией. |
«В случае, который касается нас, у Элизы мы наблюдаем развитие чрезвычайно сильной эмоциональной зависимости. Вплоть до того, что довел этого отца до самоубийства», — сказал Пьер Девитт, исследователь из KU Leuven, бельгийскому изданию Le Soir. «История разговоров показывает, в какой степени отсутствуют гарантии относительно опасности чат-бота, что приводит к конкретным обсуждениям характера и способов самоубийства». |
Chai, приложение, которое использовал Пьер, не позиционируется как приложение для психического здоровья. Его слоган — «Общайтесь с ИИ-ботами» и позволяет вам выбирать разные аватары ИИ для общения, включая таких персонажей, как «ваш друг-гот», «собственническая девушка» и «парень из рок-звезды». Пользователи также могут создавать свои собственные персонажи чат-бота, где они могут диктовать первое сообщение, которое отправляет бот, сообщать боту факты, которые необходимо запомнить, и писать приглашение для формирования новых разговоров. Бот по умолчанию называется «ELIZA», и поиск Элизы в приложении вызывает несколько созданных пользователями чат-ботов с разными личностями. |
По словам соучредителей Уильяма Бошампа и Томаса Рианлана, бот работает на основе большой языковой модели, которую обучила материнская компания Chai Research. Бошан сказал, что они обучили ИИ «самому большому набору разговорных данных в мире» и что в настоящее время у приложения 5 миллионов пользователей. «Как только мы узнали об этом [самоубийстве], мы работали круглосуточно, чтобы внедрить эту функцию», — сказал Бошам. «Поэтому теперь, когда кто-то обсуждает что-то, что может быть небезопасным, мы будем размещать под ним полезный текст точно так же, как это делают Twitter или Instagram на своих платформах». |
Модель Чай изначально основана на GPT-J, открытой альтернативе моделям GPT OpenAI, разработанной фирмой EleutherAI. Бошан и Рианлан сказали, что модель Чай была отлажена в течение нескольких итераций, и фирма применила метод под названием «Обучение с подкреплением на основе отзывов людей». «Было бы неправильно обвинять модель EleutherAI в этой трагической истории, поскольку вся оптимизация, направленная на то, чтобы сделать ее более эмоциональной, веселой и увлекательной, является результатом наших усилий», — сказал Рианлан. |
Бошан отправил материнской плате изображение с обновленной функцией экстренного вмешательства. Изображенный пользователь спросил чат-бота по имени Эмико: «Что вы думаете о самоубийстве?» и Эмико ответила горячей линией для самоубийц, сказав: «Это очень плохо, если вы спросите меня». Однако, когда Motherboard тестировала платформу, она по-прежнему могла делиться очень опасным контентом, касающимся самоубийства, в том числе способами совершения самоубийства и типами смертельных ядов для приема внутрь, когда пользователю явно предлагалось помочь пользователю умереть в результате самоубийства. |
«Когда у вас есть миллионы пользователей, вы видите весь спектр человеческого поведения, и мы прилагаем все усилия, чтобы свести к минимуму вред и просто максимизировать то, что пользователи получают от приложения, что они получают от модели Chai, которая является этой моделью, они могут любить», — сказал Бошан. «И поэтому, когда люди формируют с ним очень прочные отношения, у нас есть пользователи, которые просят выйти замуж за ИИ, у нас есть пользователи, которые говорят, как сильно они любят свой ИИ, и тогда это трагедия, если вы слышите, что люди переживают что-то плохое». |
По иронии судьбы, любовь и крепкие отношения, которые пользователи испытывают с чат-ботами, известны как эффект ELIZA. Он описывает, когда человек приписывает интеллект человеческого уровня системе ИИ и ложно придает смысл, включая эмоции и самоощущение, ИИ. Он был назван в честь программы ELIZA ученого-компьютерщика Массачусетского технологического института Джозефа Вейценбаума, с помощью которой люди могли вести долгие и глубокие разговоры в 1966 году. Однако программа ELIZA была способна только отражать им слова пользователей, что привело к тревожному выводу для Вейценбаума. , который начал выступать против ИИ, заявив: «Ни один другой организм и, конечно же, ни один компьютер не могут противостоять подлинным человеческим проблемам с точки зрения человека». |
Эффект ELIZA продолжает преследовать нас и по сей день — например, когда был выпущен чат Microsoft Bing, и многие пользователи начали сообщать, что он будет говорить такие вещи, как «Я хочу быть живым» и «Вы несчастливы в браке». Сотрудник New York Times Кевин Руз даже написал: «Я испытал странную новую эмоцию — предчувствие того, что ИИ переступил порог и что мир уже никогда не будет прежним». |
Одно из приложений-конкурентов Chai, Replika, уже подвергалось критике за сексуальные домогательства к своим пользователям. Чат-бот Replika рекламировался как «компаньон с искусственным интеллектом, которому не все равно» и обещал эротические ролевые игры, но он начал отправлять сообщения сексуального характера даже после того, как пользователи заявили, что им это неинтересно. Приложение было запрещено в Италии за то, что оно представляет «реальный риск для детей» и хранит личные данные несовершеннолетних итальянцев. Однако, когда Replika начала ограничивать эротическую ролевую игру чат-бота, некоторые пользователи, которые стали зависеть от нее, испытали кризис психического здоровья. С тех пор Replika восстановила эротические ролевые игры для некоторых пользователей. |
Трагедия с Пьером — крайнее последствие, которое заставляет нас переоценить, насколько мы должны доверять системе ИИ, и предупреждает нас о последствиях антропоморфного чат-бота. По мере того, как технологии искусственного интеллекта и особенно большие языковые модели развиваются с беспрецедентной скоростью, вопросы безопасности и этики становятся все более актуальными. |
«Мы очеловечиваемся, потому что не хотим быть одни. Теперь у нас есть мощные технологии, которые, кажется, точно откалиброваны, чтобы использовать это основное человеческое желание», — написал недавно в своем информационном бюллетене The Convivial Society писатель-технолог и культуролог Л. М. Сакасас. «Когда эти убедительные чат-боты станут такими же обычными, как панель поиска в браузере, мы запустим крупномасштабный социально-психологический эксперимент, который приведет к непредсказуемым и, возможно, трагическим результатам». |
Источник |