|
Почему одни из нас любят ИИ, а другие ненавидят
|
|
|
|
От создания электронных писем в чате до систем искусственного интеллекта, рекомендующих телешоу и даже помогающих диагностировать болезни, - присутствие машинного интеллекта в повседневной жизни больше не является научной фантастикой.
|
|
|
|
И все же, несмотря на все обещания скорости, точности и оптимизации, мы испытываем постоянный дискомфорт. Некоторым людям нравится использовать инструменты искусственного интеллекта. Другие чувствуют тревогу, подозрительность и даже предательство с их стороны. Почему?
|
|
|
|
Ответ заключается не только в том, как работает искусственный интеллект. Дело в том, как работаем мы. Мы его не понимаем, поэтому не доверяем ему. Люди скорее доверяют системам, которые они понимают. Традиционные инструменты кажутся знакомыми: вы поворачиваете ключ, и машина заводится. Вы нажимаете кнопку, и подъезжает лифт.
|
|
|
|
Но многие системы искусственного интеллекта работают как черные ящики: вы что-то вводите, и появляется решение. Логика между ними скрыта. Психологически это нервирует. Нам нравится видеть причину и следствие, и нам нравится иметь возможность подвергать сомнению решения. Когда мы не можем этого сделать, мы чувствуем себя беспомощными.
|
|
|
|
|
|
|
Это одна из причин так называемого неприятия алгоритмов. Этот термин популяризировали маркетолог Беркли Дитворст и его коллеги, чьи исследования показали, что люди часто предпочитают ошибочное суждение человека алгоритмическому принятию решений, особенно после того, как они стали свидетелями хотя бы одной алгоритмической ошибки.
|
|
|
|
Мы знаем, что у систем искусственного интеллекта нет эмоций или целей. Но это не мешает нам проецировать их на системы искусственного интеллекта. Когда ChatGPT отвечает "слишком вежливо", некоторые пользователи находят это жутким. Когда механизм рекомендаций становится слишком точным, это кажется навязчивым. Мы начинаем подозревать манипуляцию, хотя у системы нет собственной сущности.
|
|
|
|
Это форма антропоморфизма, то есть приписывания человекоподобных намерений нечеловеческим системам. Профессора коммуникации Клиффорд Нэсс и Байрон Ривз вместе с другими исследователями продемонстрировали, что мы социально реагируем на машины, даже зная, что они не люди.
|
|
Мы терпеть не можем, когда ИИ ошибается
|
|
|
|
Один из любопытных выводов, сделанных учеными в области бихевиористики, заключается в том, что мы часто более снисходительны к человеческим ошибкам, чем к ошибкам машин. Когда человек совершает ошибку, мы понимаем это. Мы можем даже сопереживать. Но когда алгоритм допускает ошибку, особенно если он был представлен как объективный или основанный на данных, мы чувствуем себя преданными.
|
|
|
|
Это связано с исследованиями нарушения ожиданий, когда наши предположения о том, как что-то "должно" себя вести, нарушаются. Это вызывает дискомфорт и потерю доверия. Мы верим, что машины логичны и беспристрастны. Поэтому, когда они терпят неудачу, например, неправильно классифицируют изображение, выдают предвзятые выводы или рекомендуют что-то совершенно неподходящее, наша реакция более резкая. Мы ожидали большего.
|
|
|
|
В чем ирония? Люди постоянно принимают ошибочные решения. Но, по крайней мере, мы можем спросить их: "Почему?"
|
|
|
|
Для некоторых искусственный интеллект не просто непривычен, он вызывает тревогу. Учителя, писатели, юристы и дизайнеры внезапно сталкиваются с инструментами, которые частично повторяют их работу. Речь идет не только об автоматизации, но и о том, что делает наши навыки ценными и что значит быть человеком.
|
|
|
|
Это может привести к возникновению угрозы идентичности - концепции, исследованной социальным психологом Клодом Стилом и другими. Это описывает страх, что чьи-то знания или уникальность умаляются. Результат? Сопротивление, защита или полный отказ от технологии. Недоверие в данном случае — это не ошибка, а механизм психологической защиты.
|
|
|
|
Потребность в эмоциональных сигналах
|
|
|
|
Человеческое доверие основано не только на логике. Мы читаем интонации, выражения лица, колебания и зрительный контакт. ИИ не обладает ни тем, ни другим. Он может быть беглым, даже очаровательным. Но это не успокаивает нас так, как это может сделать другой человек.
|
|
|
|
Это похоже на дискомфорт в сверхъестественной долине, термин, придуманный японским робототехником Масахиро Мори для описания жуткого ощущения, когда что-то напоминает человека, но не совсем. Это выглядит или звучит правильно, но что-то кажется неправильным. Это отсутствие эмоций может быть истолковано как холодность или даже обман.
|
|
|
|
В мире, полном подделок и алгоритмических решений, отсутствие эмоционального резонанса становится проблемой. Не потому, что ИИ делает что-то не так, а потому, что мы не знаем, как к этому относиться.
|
|
|
|
Важно отметить, что не все подозрения в отношении ИИ иррациональны. Было доказано, что алгоритмы отражают и усиливают предвзятость, особенно в таких областях, как подбор персонала, работа полиции и оценка кредитоспособности. Если раньше информационные системы причиняли вам вред или ставили в невыгодное положение, это не паранойя, а осторожность.
|
|
|
|
Это связано с более широкой психологической идеей: приобретенным недоверием. Когда институты или системы постоянно подводят определенные группы, скептицизм становится не только разумным, но и защитным.
|
|
|
|
Призыв к людям "доверять системе" редко срабатывает. Доверие нужно заслужить. Это означает разработку прозрачных, поддающихся опросу и подотчетных инструментов искусственного интеллекта. Это означает предоставление пользователям свободы действий, а не только удобства. Психологически мы доверяем тому, что понимаем, чему можем подвергнуть сомнению и что относится к нам с уважением.
|
|
|
|
Если мы хотим, чтобы искусственный интеллект был принят, он должен восприниматься не как черный ящик, а скорее как диалог, к которому нас приглашают присоединиться.
|
|
|
|
Источник
|