Принятие суждений ИИ о моральных решениях
|
|
Исследовательская группа изучила условия, при которых люди будут принимать моральные суждения ИИ. Они сосредоточились на поведении "не помогать людям с плохой репутацией (оправданный отказ от сотрудничества)", которое людям трудно оценить как хорошее или плохое, чтобы исследовать, при каких условиях люди с большей вероятностью примут суждения ИИ по сравнению с человеческими.
|
|
Исследование показало, что люди, как правило, более благосклонно относятся к суждениям ИИ, когда ИИ выносит положительные суждения, а люди - отрицательные. Результаты исследования были опубликованы в журнале Scientific Reports 27 января 2025 года.
|
|
По мере того как технологии ИИ все больше интегрируются в повседневную жизнь, понимание общественного мнения о решениях ИИ становится критически важным. Предыдущие исследования показали, что люди часто придерживаются предубеждений, таких как "неприятие алгоритмов" и "оценка эффективности алгоритмов", из-за чего они могут не доверять ИИ или чрезмерно доверять ему.
|
|
Однако в этом исследовании рассматривается менее изученный сценарий, когда люди оказываются неуверенными в своих моральных суждениях, особенно в отношении косвенной взаимности, когда люди решают, сотрудничать ли им с другими, основываясь на репутации.
|
|
|
|
Исследователи провели два эксперимента с японскими участниками, изучая, как они оценивают решения менеджера с искусственным интеллектом по сравнению с решениями менеджера-человека на рабочем месте. Основные результаты показали, что участники были более склонны принимать решения ИИ, когда ИИ оценивал отказ от сотрудничества как положительный (оправданное отступничество), а человек оценивал его как отрицательный.
|
|
Результаты показывают, что люди могут воспринимать суждения ИИ как более объективные, особенно в тех случаях, когда человеческие суждения могут восприниматься как предвзятые или продиктованные скрытыми намерениями.
|
|
Полученные результаты способствуют более глубокому пониманию механизмов, лежащих в основе принятия людьми ИИ при принятии моральных и социальных решений, подчеркивая важность контекста в формировании этих представлений. Поскольку общество продолжает интегрировать искусственный интеллект в процесс принятия сложных решений, такие знания необходимы для разработки систем искусственного интеллекта, которые соответствуют ожиданиям людей и общественным нормам.
|
|
Источник
|