Машины могут принимать более верные решения
|
|
Согласно новому исследованию ESMT Berlin, машины могут принимать лучшие решения, чем люди, но людям часто трудно понять, когда решения, принимаемые машиной, на самом деле более точны, и в конечном итоге они игнорируют решения алгоритма в худшую сторону. Это явление известно как неприятие алгоритмов и часто объясняется врожденным недоверием к машинам. Однако систематическое отклонение алгоритма не обязательно может быть связано с неприятием алгоритма. Это новое исследование показывает, что сам контекст, в котором работает человек, принимающий решения, также может помешать ему узнать, принимает ли машина лучшие решения.
|
|
Эти результаты получены в результате исследования Франсиса де Верикоура и Хусейна Гуркана, профессоров управленческих наук в ESMT Berlin. Исследователи хотели определить, при каких условиях человек, принимающий решения, наблюдая за машиной, принимающей важные решения, мог бы правильно оценить, дает ли машина лучшие рекомендации. Для этого исследователи создали аналитическую модель, в которой человек, принимающий решения, контролировал работу машины, которой было поручено принимать важные решения, например, проводить биопсию пациента. Затем человек, принимающий решения, делал наилучший выбор на основе информации, полученной от машины для каждой задачи.
|
|
Исследователи обнаружили, что если человек, принимающий решения, прислушается к рекомендации машины и она окажется правильной, человек будет больше доверять машине. Но иногда человек не замечал, верна ли рекомендация машины — это случалось, например, когда человек, принимающий решения, решал не предпринимать последующих действий. В этом случае не произошло никаких изменений в доверии и никаких уроков для человека, принимающего решения. Это взаимодействие между решением человека и его оценкой машины создает предвзятое обучение. Следовательно, со временем они могут не научиться эффективно использовать машины.
|
|
Эти результаты ясно показывают, что не всегда врожденное недоверие к машинам означает, что люди отвергают алгоритмические решения, но со временем это предвзятое обучение может быть усилено последовательным переопределением, что может привести к неправильному и неэффективному использованию машин в процессе принятия решений. «Часто мы наблюдаем склонность людей отвергать алгоритмы, что обычно можно объяснить внутренним недоверием к прогнозам, основанным на машинах», — говорит профессор де Верикур. «Это предубеждение, однако, может быть не единственной причиной неуместного и систематического переопределения алгоритма. Возможно также, что мы просто не учимся правильно эффективно использовать машины, когда наше обучение основано исключительно на правильности алгоритма. предсказания машины».
|
|
Эти результаты показывают, что доверие к способности машины принимать решения является ключом к тому, чтобы мы могли эффективно научиться ее использовать, а также повышать точность ее использования. «Наше исследование показывает, что у людей, принимающих решения, явно недостаточно возможностей учиться на интеллекте машины, если они не будут постоянно учитывать ее советы», — говорит профессор Гуркан. «Нам нужно постоянно, а не выборочно, применять способы полного обучения с машинами». Исследователи говорят, что эти результаты проливают свет на важность сотрудничества между людьми и машинами и указывают нам, когда (а когда нет) доверять машинам. Изучая такие ситуации, мы можем узнать, когда лучше слушать машину, а когда лучше принимать собственные решения. Структура, разработанная исследователями, может помочь людям лучше использовать машины при принятии решений. Работа опубликована в журнале Management Science.
|
|
Источник
|