Несправедливые решения ИИ путь к плохому поведению людей
|
|
Искусственный интеллект (ИИ) принимает важные решения, которые влияют на нашу повседневную жизнь. Эти решения реализуются фирмами и учреждениями во имя эффективности. Они могут помочь определить, кто поступает в колледж, кто находит работу, кто получает медицинскую помощь и кто имеет право на получение государственной помощи.
|
|
По мере того как ИИ берет на себя эти функции, растет риск принятия несправедливых решений — или их восприятия теми, кого это касается. Например, при приеме в колледж или приеме на работу эти автоматизированные решения могут непреднамеренно приниматься в пользу определенных групп людей или лиц с определенным опытом работы, в то время как одинаково квалифицированные, но недопредставленные кандидаты остаются незамеченными.
|
|
Или, когда правительства используют искусственный интеллект в системах льгот, он может распределять ресурсы таким образом, чтобы усугубить социальное неравенство, в результате чего некоторые люди получают меньше, чем они заслуживают, и испытывают чувство несправедливого обращения.
|
|
Совместно с международной командой исследователей мы изучили, как несправедливое распределение ресурсов — будь то с помощью искусственного интеллекта или человека — влияет на готовность людей бороться с несправедливостью. Результаты были опубликованы в журнале Cognition.
|
|
|
|
По мере того как искусственный интеллект все больше внедряется в повседневную жизнь, правительства принимают меры для защиты граждан от предвзятых или непрозрачных систем искусственного интеллекта. Примерами таких усилий являются Билль о правах Белого дома в области искусственного интеллекта и Закон Европейского парламента об искусственном интеллекте. Это отражает общую озабоченность: люди могут чувствовать себя обиженными решениями ИИ.
|
|
Итак, как же проявление несправедливости со стороны ИИ-системы влияет на то, как люди впоследствии относятся друг к другу?
|
Безразличие, вызванное ИИ
|
|
В нашей статье в журнале Cognition рассматривалась готовность людей противостоять несправедливости после того, как они столкнулись с несправедливым обращением со стороны ИИ. Поведение, которое мы исследовали, применимо к последующим, не связанным между собой взаимодействиям этих людей. Готовность действовать в таких ситуациях, часто называемая "просоциальным наказанием", считается решающей для соблюдения социальных норм.
|
|
Например, информаторы могут сообщать о неэтичных действиях, несмотря на риски, или потребители могут бойкотировать компании, которые, по их мнению, действуют во вред обществу. Люди, которые прибегают к таким актам просоциального наказания, часто делают это для устранения несправедливости, которая затрагивает других, что помогает укрепить общественные стандарты.
|
|
Мы задались вопросом: может ли переживание несправедливости со стороны искусственного интеллекта, а не человека, повлиять на готовность людей противостоять нарушителям в дальнейшем? Например, если ИИ несправедливо назначает смену или отказывает в пособии, снижает ли вероятность того, что впоследствии люди будут сообщать о неэтичном поведении коллеги?
|
|
В ходе серии экспериментов мы обнаружили, что люди, с которыми ИИ обошелся несправедливо, с меньшей вероятностью впоследствии наказывали нарушителей-людей, чем участники, с которыми несправедливо обошелся человек. Они проявили своего рода снижение чувствительности к плохому поведению других. Мы назвали этот эффект безразличием, вызванным ИИ, чтобы подчеркнуть идею о том, что несправедливое отношение со стороны ИИ может ослабить чувство ответственности людей перед другими. Это снижает вероятность того, что они будут бороться с несправедливостью в своем сообществе.
|
|
Причины бездействия
|
|
Это может быть связано с тем, что люди меньше винят искусственный интеллект в несправедливом обращении и, следовательно, чувствуют себя менее склонными бороться с несправедливостью. Этот эффект сохраняется, даже когда участники сталкиваются только с несправедливым поведением других или как с справедливым, так и с несправедливым поведением. Чтобы посмотреть, повлияло ли знакомство с искусственным интеллектом на выявленную нами взаимосвязь, мы провели те же эксперименты еще раз, после выпуска ChatGPT в 2022 году. В последующих сериях тестов мы получили те же результаты, что и в предыдущих.
|
|
Эти результаты свидетельствуют о том, что реакция людей на несправедливость зависит не только от того, справедливо ли с ними обошлись, но и от того, кто обошелся с ними несправедливо — искусственный интеллект или человек.
|
|
Короче говоря, несправедливое отношение со стороны системы искусственного интеллекта может повлиять на то, как люди реагируют друг на друга, делая их менее внимательными к несправедливым действиям друг друга. Это подчеркивает потенциальное влияние искусственного интеллекта на человеческое общество, выходящее за рамки индивидуального опыта принятия одного несправедливого решения.
|
|
Когда системы ИИ действуют нечестно, последствия распространяются на будущие взаимодействия, влияя на то, как люди относятся друг к другу, даже в ситуациях, не связанных с ИИ. Мы бы посоветовали разработчикам систем ИИ сосредоточиться на минимизации искажений в данных обучения ИИ, чтобы предотвратить эти важные побочные эффекты.
|
|
Директивным органам также следует установить стандарты прозрачности, обязывающие компании раскрывать информацию о случаях, когда ИИ может принимать несправедливые решения. Это поможет пользователям понять ограничения систем ИИ и способы оспаривания несправедливых результатов. Повышенная осведомленность об этих последствиях также может побудить людей быть внимательными к несправедливости, особенно после взаимодействия с искусственным интеллектом.
|
|
Чувство возмущения и вины за несправедливое обращение необходимо для выявления несправедливости и привлечения виновных к ответственности. Устраняя непреднамеренные социальные последствия ИИ, лидеры могут обеспечить, чтобы ИИ поддерживал, а не подрывал этические и социальные стандарты, необходимые для общества, построенного на справедливости.
|
|
Источник
|