Вам нравится, когда вас нанимает на работу робот
|
|
Искусственный интеллект (ИИ) трансформирует индустрию управления человеческими ресурсами (HRM) быстрее, чем мы замечаем. Шестьдесят пять процентов организаций уже используют инструменты с поддержкой искусственного интеллекта в процессе найма, но только треть кандидатов знают об этой практике. При подборе персонала инструменты с поддержкой искусственного интеллекта способны собирать большие объемы организационных данных для поиска, идентификации, оценки, ранжирования и выбора кандидатов на работу. Они могут собирать информацию о потребностях в найме в разных командах, создавать рекламные объявления с моделями качеств кандидатов и выделять потенциальных кандидатов на различных цифровых платформах. Инструменты с поддержкой искусственного интеллекта уже давно обещают эффективность обработки документов заявителей, одновременно потенциально уменьшая предвзятость со стороны HR-агентов, которые могут, намеренно или нет, дискриминировать или несправедливо судить некоторые заявления.
|
|
Однако новые данные свидетельствуют о том, что инструменты управления персоналом с поддержкой искусственного интеллекта могут дискриминировать определенных кандидатов, которые могут не соответствовать историческому образцу описания должности, например, кандидатов-женщин (в STEM) или тех, у кого в резюме есть пробелы из-за болезни, инвалидности, уход за членом семьи, безработица или срок отбывания наказания в тюрьме. Тех из нас, кто беспокоится по поводу использования ИИ в HR, не успокоят его достижения в других областях. Технологические гиганты, включая Apple, IBM и Microsoft (все из которых, по-видимому, знают, что делают), столкнулись с критикой за этические нарушения, особенно в отношении гендерной дискриминации. Например, регулирующие органы США провели расследование в отношении Apple в 2019 году после того, как выяснилось, что ее служба кредитных карт на базе искусственного интеллекта систематически предлагает женщинам более низкие кредитные лимиты. Тревогу подняли несколько пар, в том числе сам Стив Возняк, соучредитель Apple, и его жена, для которой алгоритм кредитной карты предлагал мужчине более высокий кредитный лимит, хотя у пары были совместные счета.
|
|
Имеющиеся данные об использовании ИИ при подборе персонала позволяют предположить, что соискатели инстинктивно критически относятся к его использованию. Кандидаты, которым приходится принимать автономные решения ИИ, описывают этот процесс как «недостойный» или «несправедливый». Другие исследования показывают, что суждения менее суровы в разных контекстах. Согласно опросу Tideo, проведенному в ноябре 2023 года, только 31% респондентов согласились бы позволить искусственному интеллекту решать, нанимать их или нет. Но эта цифра возрастает до 75%, если в этом процессе участвует также человек. Тем не менее, 25% участников считают, что любое использование искусственного интеллекта при подборе персонала несправедливо. До нашего исследования этическое восприятие организаций, использующих инструменты искусственного интеллекта в процессе найма, мало изучалось. Большинство научных исследований по этой теме сосредоточено на справедливости практики или доверии к технологиям (например, чат-ботам), а не на доверии к самим организациям.
|
|
В двух публикациях в Журнале деловой этики мы рассмотрели, как использование ИИ при найме может повлиять на доверие к компании соискателей или недавно нанятых лиц. Мы обнаружили, что их восприятие ИИ определяет, считают ли они использующую его организацию заслуживающей доверия или даже привлекательной и инновационной. Восприятие варьируется в зависимости от личных ценностей человека, прошлого опыта и принятия технологий. Они также различаются в зависимости от контекста и применения. Например, хотя человек может доверять эффективности ИИ в прогнозировании предпочтений в фильмах, исследования показывают, что большинство из них по-прежнему предпочитают сотрудничество человека или человека с ИИ (т. е. автономному ИИ) при принятии решения о приеме на работу. В исследовании, посвященном этике ИИ и организационном доверии, проведенном в июне 2022 года, мы обнаружили, что кандидаты, которые считают ИИ в процессе найма высокоэффективным с точки зрения производительности, на 64% чаще доверяют организациям, которые его используют.
|
|
Мы продолжили исследование по аналогичной теме, проведенное в марте 2023 года. Мы обнаружили, что чем выше этическое восприятие человеком использования ИИ при найме на работу, тем более привлекательной он или она находит организацию. Например, кандидаты, которые считают, что для организации этично использовать ИИ для анализа личного контента в социальных сетях или анализа аудиоинтервью на предмет голосовых подсказок, на 25% чаще воспринимают эту организацию как привлекательную. Менеджеры по персоналу сталкиваются со все более сложной этической средой, в которой ИИ включает в себя быстрорастущий набор приложений. Организациям, которые полны решимости сохранить «человечность» в HR, необходимо тщательно сбалансировать процесс найма, принимая во внимание такие факторы, как прозрачность и финансовые ожидания. Наряду с другими исследованиями, наше исследование придает новую актуальность задаче интеграции этики ИИ в управление каждой организацией.
|
|
Источник
|