Несправедливые решения ИИ путь к плохому поведению людей
|
Искусственный интеллект (ИИ) принимает важные решения, которые влияют на нашу повседневную жизнь. Эти решения реализуются фирмами и учреждениями во имя эффективности. Они могут помочь определить, кто поступает в колледж, кто находит работу, кто получает медицинскую помощь и кто имеет право на получение государственной помощи. |
По мере того как ИИ берет на себя эти функции, растет риск принятия несправедливых решений — или их восприятия теми, кого это касается. Например, при приеме в колледж или приеме на работу эти автоматизированные решения могут непреднамеренно приниматься в пользу определенных групп людей или лиц с определенным опытом работы, в то время как одинаково квалифицированные, но недопредставленные кандидаты остаются незамеченными. |
Или, когда правительства используют искусственный интеллект в системах льгот, он может распределять ресурсы таким образом, чтобы усугубить социальное неравенство, в результате чего некоторые люди получают меньше, чем они заслуживают, и испытывают чувство несправедливого обращения. |
Совместно с международной командой исследователей мы изучили, как несправедливое распределение ресурсов — будь то с помощью искусственного интеллекта или человека — влияет на готовность людей бороться с несправедливостью. Результаты были опубликованы в журнале Cognition. |
По мере того как искусственный интеллект все больше внедряется в повседневную жизнь, правительства принимают меры для защиты граждан от предвзятых или непрозрачных систем искусственного интеллекта. Примерами таких усилий являются Билль о правах Белого дома в области искусственного интеллекта и Закон Европейского парламента об искусственном интеллекте. Это отражает общую озабоченность: люди могут чувствовать себя обиженными решениями ИИ. |
Итак, как же проявление несправедливости со стороны ИИ-системы влияет на то, как люди впоследствии относятся друг к другу? |
Безразличие, вызванное ИИ |
В нашей статье в журнале Cognition рассматривалась готовность людей противостоять несправедливости после того, как они столкнулись с несправедливым обращением со стороны ИИ. Поведение, которое мы исследовали, применимо к последующим, не связанным между собой взаимодействиям этих людей. Готовность действовать в таких ситуациях, часто называемая "просоциальным наказанием", считается решающей для соблюдения социальных норм. |
Например, информаторы могут сообщать о неэтичных действиях, несмотря на риски, или потребители могут бойкотировать компании, которые, по их мнению, действуют во вред обществу. Люди, которые прибегают к таким актам просоциального наказания, часто делают это для устранения несправедливости, которая затрагивает других, что помогает укрепить общественные стандарты. |
Мы задались вопросом: может ли переживание несправедливости со стороны искусственного интеллекта, а не человека, повлиять на готовность людей противостоять нарушителям в дальнейшем? Например, если ИИ несправедливо назначает смену или отказывает в пособии, снижает ли вероятность того, что впоследствии люди будут сообщать о неэтичном поведении коллеги? |
В ходе серии экспериментов мы обнаружили, что люди, с которыми ИИ обошелся несправедливо, с меньшей вероятностью впоследствии наказывали нарушителей-людей, чем участники, с которыми несправедливо обошелся человек. Они проявили своего рода снижение чувствительности к плохому поведению других. Мы назвали этот эффект безразличием, вызванным ИИ, чтобы подчеркнуть идею о том, что несправедливое отношение со стороны ИИ может ослабить чувство ответственности людей перед другими. Это снижает вероятность того, что они будут бороться с несправедливостью в своем сообществе. |
Причины бездействия |
Это может быть связано с тем, что люди меньше винят искусственный интеллект в несправедливом обращении и, следовательно, чувствуют себя менее склонными бороться с несправедливостью. Этот эффект сохраняется, даже когда участники сталкиваются только с несправедливым поведением других или как с справедливым, так и с несправедливым поведением. Чтобы посмотреть, повлияло ли знакомство с искусственным интеллектом на выявленную нами взаимосвязь, мы провели те же эксперименты еще раз, после выпуска ChatGPT в 2022 году. В последующих сериях тестов мы получили те же результаты, что и в предыдущих. |
Эти результаты свидетельствуют о том, что реакция людей на несправедливость зависит не только от того, справедливо ли с ними обошлись, но и от того, кто обошелся с ними несправедливо — искусственный интеллект или человек. |
Короче говоря, несправедливое отношение со стороны системы искусственного интеллекта может повлиять на то, как люди реагируют друг на друга, делая их менее внимательными к несправедливым действиям друг друга. Это подчеркивает потенциальное влияние искусственного интеллекта на человеческое общество, выходящее за рамки индивидуального опыта принятия одного несправедливого решения. |
Когда системы ИИ действуют нечестно, последствия распространяются на будущие взаимодействия, влияя на то, как люди относятся друг к другу, даже в ситуациях, не связанных с ИИ. Мы бы посоветовали разработчикам систем ИИ сосредоточиться на минимизации искажений в данных обучения ИИ, чтобы предотвратить эти важные побочные эффекты. |
Директивным органам также следует установить стандарты прозрачности, обязывающие компании раскрывать информацию о случаях, когда ИИ может принимать несправедливые решения. Это поможет пользователям понять ограничения систем ИИ и способы оспаривания несправедливых результатов. Повышенная осведомленность об этих последствиях также может побудить людей быть внимательными к несправедливости, особенно после взаимодействия с искусственным интеллектом. |
Чувство возмущения и вины за несправедливое обращение необходимо для выявления несправедливости и привлечения виновных к ответственности. Устраняя непреднамеренные социальные последствия ИИ, лидеры могут обеспечить, чтобы ИИ поддерживал, а не подрывал этические и социальные стандарты, необходимые для общества, построенного на справедливости. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|