Маргинальные американцы скептически относятся к ИИ
|
|
Искусственный интеллект может рекламироваться как великий уравнитель общества, преобразующий бизнес, оптимизирующий работу и облегчающий жизнь для всех, но для многих маргинализированных американцев ИИ не является обещанием. Он воспринимается как угроза.
|
|
Новое исследование Мичиганского университета показало, что гендерные меньшинства, женщины и инвалиды — особенно те, кто страдает нейродивергентностью или психическими расстройствами, — значительно более негативно относятся к ИИ, чем их сверстники из большинства групп.
|
|
Используя данные общенационального репрезентативного опроса, в котором приняли участие 742 человека, исследователи попросили участников сообщить о своем отношении к влиянию ИИ на их жизнь и работу. Ответы свидетельствуют о резком различии в отношении ИИ по признакам идентичности.
|
|
"Искусственный интеллект может быть везде, но он не для всех — по крайней мере, пока", - сказал ведущий автор Оливер Хеймсон, доцент Института информационных и цифровых исследований Калифорнийского университета. "Если мы продолжим игнорировать мнение маргинализированных людей, мы рискуем построить будущее на базе искусственного интеллекта, которое скорее усугубит неравенство, чем уменьшит его".
|
|
|
|
Ключевые выводы:
|
|
- Участники, не являющиеся бинарными и трансгендерными, сообщили о наиболее негативном отношении к ИИ в целом.
|
- Женщины значительно реже, чем мужчины, положительно относились к ИИ.
|
- Участники с ограниченными возможностями, особенно нейродивергентные или страдающие психическими расстройствами, также негативно относились к ИИ.
|
- Удивительно, но чернокожие участники придерживались более позитивных взглядов на искусственный интеллект, чем белые, что свидетельствует о более тонком отношении цветных людей к технологии.
|
|
В исследовании подчеркивается реальный вред, который может способствовать негативному восприятию ИИ:
|
|
- Программное обеспечение для распознавания лиц, которое вводит в заблуждение или неправильно классифицирует трансгендерных и недвоичных людей, часто во время наблюдения за ними.
|
- Алгоритмы прогнозирования действий полиции, которые усиливают расовые предубеждения и приводят к несправедливым арестам.
|
- Системы здравоохранения, которые основаны на моделях искусственного интеллекта, не предназначены для людей с ограниченными возможностями.
|
|
"Это не абстрактные опасения", - сказал Хеймсон. "Люди, которые с опаской относятся к ИИ, часто сталкиваются с системами, которые неправильно идентифицируют, исключают или вредят им из-за их пола или инвалидности".
|
|
Исследование ставит под сомнение доминирующее представление об ИИ как о нейтральном или универсально полезном инструменте. Оно призывает технологов, компании и политиков задуматься: на кого работает эта технология, а кто остается в стороне?
|
|
Соавторами исследования являются докторант Сэмюэл Рейджи Мэйворм, научный сотрудник Алексис Шор Ингбер и доцент Назанин Андалиби.
|
|
Источник
|