Как предубеждения ИИ влияют на людей
|
|
Согласно новому исследованию, опубликованному в журнале Nature Human Behavior, системы ИИ могут усиливать даже самые незначительные предубеждения, усиливая предвзятое отношение к людям. В прошлом множество психологических и социологических исследований изучали, как люди влияют друг на друга. Совсем недавно исследователи занялись выявлением предвзятости в моделях искусственного интеллекта.
|
|
Теперь исследователи Калифорнийского университета перешли к следующему этапу — изучению того, как системы искусственного интеллекта создают цикл обратной связи, поведение которого заметно отличается от взаимодействия человека с человеком. Примечательно, что исследователи обнаружили множество примеров реальных последствий, возникающих в результате предвзятого взаимодействия ИИ.
|
|
“Люди по своей природе предвзяты, поэтому, когда мы обучаем системы искусственного интеллекта на наборах данных, которые были созданы людьми, алгоритмы искусственного интеллекта изучают человеческие предубеждения, заложенные в этих данных. Затем ИИ стремится использовать и усиливать эти предубеждения, чтобы повысить точность своих прогнозов”, - говорит соавтор исследования, профессор психологии и лингвистики Калифорнийского университета Тали Шарот.
|
|
“Здесь мы обнаружили, что люди, взаимодействующие с предвзятыми системами искусственного интеллекта, могут сами стать еще более предвзятыми, создавая потенциальный эффект снежного кома, когда ИИ усиливает незначительные отклонения в исходных наборах данных, что увеличивает предвзятость человека, использующего ИИ”, - добавила Шарот.
|
|
|
|
Исследование цикла обратной связи с предвзятостью ИИ
|
|
Исследователи привлекли более 1200 испытуемых для участия в нескольких исследованиях. Первое исследование команды включало в себя создание набора цифровых изображений лиц, передающих радость, грусть и промежуточные состояния. Затем участников попросили оценить, выглядит ли каждое лицо счастливым или грустным, а затем использовали эти ответы участников для обучения алгоритма искусственного интеллекта.
|
|
Согласно предыдущим исследованиям, у людей есть врожденная склонность к негативным суждениям, когда им предоставляется неоднозначная информация. Искусственный интеллект уловил и усилил предельную склонность участников оценивать лица как печальные, а не как счастливые. Когда вторая группа выполнила задание, им сообщили о выводах ИИ и разрешили изменить свой ответ, увидев, что решил ИИ. Многие участники изменили свои ответы на отрицательные, увидев реакцию ИИ, и стали чаще выносить первоначальное отрицательное суждение после взаимодействия с ИИ.
|
|
В некоторых экспериментах команда использовала популярный ИИ Stable Diffusion generative. Когда ИИ попросили создать фотографии финансовых менеджеров, он, как правило, создавал более высокую долю белых мужчин, чем это было статистически достоверно. Опять же, предвзятое отношение ИИ распространилось и на людей. Исследователи показали группе участников фотографии отдельных лиц и попросили их определить, кто из них является финансовым менеджером. После того, как им показали результаты ИИ, испытуемые с большей вероятностью указали на белого мужчину, чем раньше.
|
Цикл обратной связи продолжается
|
|
Команда обнаружила, что их результаты могут быть воспроизведены в различных задачах. Некоторые из них были безобидными, например, определение направления перемещения точек на экране. Другие могут иметь более серьезные последствия в реальном мире, например, переоценивать эффективность мужчин и недооценивать женщин.
|
|
Участники в основном утверждали, что не подозревали о том, насколько сильно ИИ повлиял на их принятие решений. Примечательно, что когда команда Калифорнийского университета в Лос-Анджелесе сообщила испытуемым, что решения принимает другой человек, а не ИИ, вероятность того, что они поддадутся влиянию, была меньше. Исследователи полагают, что это указывает на общую тенденцию, когда люди привыкли ожидать, что искусственный интеллект будет более точным, чем обычные люди.
|
|
“Предвзятые люди не только способствуют созданию предвзятого ИИ, но и предвзятые системы искусственного интеллекта могут изменять собственные убеждения людей, так что люди, использующие инструменты ИИ, могут в конечном итоге стать более предвзятыми в самых разных областях, от социальных суждений до базового восприятия”, - сказал соавтор исследования доктор Моше Гликман, также из UCL Psychology & Language Sciences..
|
|
“Однако важно отметить, что мы также обнаружили, что взаимодействие с точным ИИ может улучшить суждения людей, поэтому жизненно важно, чтобы системы искусственного интеллекта были максимально объективными и точными”, - добавил Гликман.
|
|
Источник
|