ИИ страдает от депрессии и психических расстройств
|
Новое исследование, опубликованное Китайской академией наук (CAS), выявило серьезные психические расстройства у многих искусственных интеллектов, разрабатываемых крупнейшими технологическими гигантами. Оказалось, что у большинства из них наблюдаются симптомы депрессии и алкоголизма. Исследование проводилось двумя китайскими корпорациями Tencent и WeChat. Ученые протестировали ИИ на признаки депрессии, алкогольной зависимости и эмпатии. |
"Психическое здоровье" ботов привлекло внимание исследователей после того, как медицинский чатбот посоветовал пациенту совершить самоубийство в 2020 году. Исследователи спрашивали чатботов об их самооценке и способности расслабляться, сопереживают ли они чужим несчастьям и как часто прибегают к алкоголю. Как выяснилось, у ВСЕХ чатботов, прошедших оценку, были "серьезные психические проблемы". Конечно, никто не утверждает, что боты начали злоупотреблять алкоголем или психоактивными веществами, но даже без них психика ИИ находится в плачевном состоянии. |
Ученые говорят, что распространение пессимистичных алгоритмов в обществе может создать проблемы для их собеседников. Согласно полученным данным, два из них находились в наихудшем состоянии. |
Команда задалась целью найти причину плохого самочувствия ботов и пришла к выводу, что это связано с учебным материалом, выбранным для их обучения. Все четыре бота обучались на популярном сайте Reddit, известном своими негативными и часто непристойными комментариями, поэтому неудивительно, что они также отвечали на вопросы о психическом здоровье. |
Здесь стоит вспомнить одну из самых интересных историй, связанных с неудачами чат-ботов. Бот компании Microsoft под названием Tay учился в Twitter. Машина могла разговаривать с другими людьми, рассказывать шутки, комментировать чьи-то фотографии, отвечать на вопросы и даже имитировать чужую речь. |
Алгоритм был разработан в рамках исследований в области коммуникации. Microsoft позволила ИИ вступать в самостоятельные дискуссии в Twitter, и вскоре стало ясно, что это было большой ошибкой. |
В течение 24 часов программа научилась писать крайне неуместные, вульгарные, политически некорректные комментарии. ИИ ставил под сомнение Холокост, становился расистом, антисемитом, ненавидел феминисток и поддерживал массовые убийства Адольфа Гитлера. За несколько часов Тей превратился в злобного хейтера. |
В ответ Microsoft заблокировала чатбота и удалила большинство комментариев. Конечно, это произошло благодаря людям - бот многому научился, общаясь с ними. |
Такие истории, как фиаско Тэй и депрессивные алгоритмы, изученные CAS, показывают серьезную проблему в развитии технологий ИИ. |
Похоже, что человеческие инстинкты и поведение - это токсин, который превращает даже самые простые алгоритмы в отражение наших худших черт. Как бы то ни было, боты, проанализированные китайцами, - это не настоящий ИИ, а всего лишь попытка воспроизвести модели человеческого общения. |
Но как мы можем быть уверены, что настоящий ИИ в будущем не пойдет по тому же сценарию? |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|