Человекоподобные роботы способны к независимому мышлению
|
Новое исследование показало, что люди быстро убеждаются в том, что человекоподобный робот способен к независимым мыслям и эмоциям. Это происходит, когда кажется, что робот действует в соответствии со своими собственными убеждениями и желаниями, а не в соответствии с тем, на что он запрограммирован. Исследователи из Итальянского технологического института исследовали реакцию участников исследования на антропоморфного робота по имени iCub. Участники заполнили анкету до и после взаимодействия с iCub, который был запрограммирован действовать либо как робот, либо более дружелюбно. Было обнаружено, что те, кто подвергался воздействию робота, запрограммированного действовать больше как человек, с большей вероятностью оценивали действия робота как преднамеренные. Выводы были сделаны после того, как в прошлом месяце инженер-программист Google был отстранен от работы за утверждение, что система искусственного интеллекта компании стала разумной. |
Главный исследователь доктор Агнешка Выковска сказала: «Связь между антропоморфной формой, поведением, подобным человеческому, и тенденцией приписывать независимое мышление и намеренное поведение роботам еще предстоит понять. «Поскольку искусственный интеллект все больше становится частью нашей жизни, важно понимать, как взаимодействие с роботом, который демонстрирует поведение, подобное человеческому, может повысить вероятность приписывания роботу преднамеренного действия». Команда провела три эксперимента на 119 участниках, чтобы проверить их реакцию на робота iCub. Каждый эксперимент включал период социализации с iCub, когда они взаимодействовали друг с другом и вместе отвечали на видео. До и после этого участники заполняли анкету, в которой им показывали фотографии робота в разных ситуациях. Затем их попросили выбрать, была ли мотивация робота в каждой ситуации механической или преднамеренной. |
Например, участники просматривали три фотографии, на которых робот выбирал инструмент, а затем выбирали, «схватил ли робот ближайший объект» или «был очарован использованием инструмента». В первых двух экспериментах исследователи дистанционно контролировали действия iCub, чтобы он вел себя общительно при встрече с участниками. Он приветствовал их, представляясь и спрашивая их имена, а камеры в глазах робота также могли распознавать лица участников и поддерживать зрительный контакт. Затем участники посмотрели три коротких документальных видео с роботом, который был запрограммирован реагировать на видео звуками и выражением лица печали, благоговения или счастья. В третьем эксперименте iCub был запрограммирован так, чтобы он вел себя как машина во время взаимодействия с участниками и просмотра видео. Камеры в глазах робота были отключены, поэтому он не мог поддерживать зрительный контакт и говорил участникам только записанные предложения о процессе калибровки, который он проходил. Все эмоциональные реакции на ролики были заменены «пиканьем» и повторяющимися движениями туловища, головы и шеи. |
Было обнаружено, что участники, которые смотрели видео с человекоподобным роботом, с большей вероятностью оценивали действия робота как преднамеренные. Те, кто взаимодействовал с машиноподобным роботом, также с большей вероятностью оценили бы его действия как запрограммированные. Эти результаты, опубликованные сегодня в журнале «Технологии, разум и поведение», предполагают, что люди с большей вероятностью поверят в то, что искусственный интеллект (ИИ) способен к независимому мышлению, когда он создает впечатление, что он может вести себя как люди. Доктор Выковска утверждает, что роботу недостаточно просто выглядеть как человек, чтобы люди поверили, что он способен к мыслям и эмоциям, он также должен демонстрировать человеческое поведение. Это может быть использовано для разработки социальных роботов будущего. |
Она сказала: «Социальная связь с роботами может быть полезной в некоторых контекстах, например, с социально вспомогательными роботами. «Например, в уходе за пожилыми людьми социальная связь с роботами может привести к более высокой степени соблюдения рекомендаций относительно приема лекарств. «Определение контекстов, в которых социальные связи и атрибуция преднамеренности полезны для благополучия людей, является следующим шагом исследований в этой области». В прошлом месяце инженер-программист Google был отстранен от работы после того, как заявил, что система искусственного интеллекта компании LaMDA (языковая модель для диалоговых приложений) стала разумной. Блейк Лемуан публично заявил, что инструмент обладает интеллектом «семилетнего, восьмилетнего ребенка, который знает физику». 41-летний мужчина также сказал, что у него была человеческая неуверенность, и что один из его страхов заключался в том, что он «сильно обеспокоен тем, что люди будут бояться его, и не хочет ничего, кроме как научиться лучше всего служить человечеству». Google утверждает, что опасения Лемуана были рассмотрены и, в соответствии с принципами искусственного интеллекта Google, «доказательства не подтверждают его утверждения». |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|