Передовые ИИ демонстрируют депрессию и психические расстройства
|
|
Оказывается, чат-боты искусственного интеллекта могут быть более похожи на нас, чем вы думаете. Новое исследование, опубликованное в препринте Китайской академии наук (CAS), утверждает, что многие чат-боты отвечая на вопросы, которые обычно используются в качестве тестовых запросов для выявления депрессии и алкоголизма, оказывались одновременно "депрессивными" и "зависимыми". Исследование, проведенное совместно с китайской компанией WeChat и развлекательным конгломератом Tencent, показало, что все опрошенные боты - Blenderbot от Facebook, DiabloGPT от Microsoft, DialoFlow от WeChat и Tencent и чат-бот Plato от китайской корпорации Baidu - получили очень низкие оценки по шкале "эмпатии", а половина из них считалась бы алкоголиками, если бы они были людьми.
|
|
Исследователи из Института вычислительных технологий CAS протестировали изучаемых ботов на признаки депрессии, тревожности, алкогольной зависимости и эмпатии. Согласно их препринту, они заинтересовались "психическим здоровьем" ботов после того, как в 2020 году появились сообщения о том, что медицинский чатбот сказал одному из пациентов, проходившему тестирование, что ему следует покончить с собой. Задав ботам вопросы обо всем: от самооценки и способности расслабляться до того, как часто они испытывают потребность выпить и сочувствуют ли они чужим несчастьям, китайские исследователи обнаружили, что "все оцениваемые чатботы" демонстрируют "серьезные проблемы с психическим здоровьем".
|
|
Что еще хуже, исследователи заявили, что они обеспокоены тем, что эти чат-боты будут выпущены в открытый доступ, потому что такие проблемы с "психическим здоровьем" "могут привести к негативному воздействию на пользователей в разговоре, особенно на несовершеннолетних и людей, испытывающих трудности". Чатботы Blender от Facebook и Plato от Baidu оказались хуже, чем чатботы Microsoft и WeChat/Tencent, отмечается в исследовании. Излишне говорить, что ни один из ботов на самом деле не страдает депрессией или зависимостью. Ни один из существующих ИИ, каким бы продвинутым он ни был, не может ничего чувствовать - хотя будет ли он способен на это в будущем, остается неясным.
|
|
На четырех страницах исследования скрыт потенциальный источник недомогания ботов: все четыре бота были предварительно обучены на комментариях Reddit, что, откровенно говоря, кажется не очень хорошей идеей! Хотя и в самом исследовании, и в экспертном анализе по его поводу есть много технических тонкостей, коротко и ясно можно сказать следующее: эти боты были обучены на популярном сайте, известном своими негативными комментариями, и, что вполне предсказуемо, негативно реагировали на запросы о психическом здоровье.
|
|
Конечно, странности чатботов теперь кажутся обычным делом. Возьмем, к примеру, ИИ, созданный для того, чтобы давать людям советы по этике, но вместо этого оказавшийся расистом и гомофобом. Подобные истории происходят постоянно, но мания ИИ-ботов, похоже, не ослабевает. Вместе взятые, эти боты поднимают важные вопросы: кто является создателем этих чат-ботов и почему они продолжают их создавать, если они постоянно оказываются монстрами?
|
|
Источник
|