Использование ИИ для воскрешения близких людей
|
Идея использования искусственного интеллекта (ИИ) для цифрового воскрешения умершего любимого человека может звучать как сюжет из последнего эпизода "Черного зеркала". Но эти так называемые "грифботы", "деадботы" или "дэдботы смерти" медленно, но верно становятся реальностью, и в настоящее время несколько фирм предлагают эту услугу. Теперь исследователи из Кембриджского университета предупредили, что эти боты могут нанести психологический вред и даже в цифровом виде "преследовать" тех, кто остался позади. "Эти сервисы рискуют причинить огромные страдания людям, если они столкнутся с нежелательными цифровыми преследованиями из-за пугающе точного воссоздания ИИ тех, кого они потеряли", - сказал соавтор исследования доктор Томаш Холланек. "Потенциальный психологический эффект, особенно в и без того трудное время, может быть разрушительным". В своем исследовании специалисты по этике из Кембриджского Леверхулмского центра будущего интеллекта рассмотрели три гипотетических сценария, которые могут возникнуть в рамках быстрорастущей "индустрии цифровой загробной жизни". Во-первых, боты могут быть использованы для скрытой рекламы товаров из загробного мира или из урны для кремации, предупреждают авторы. Во-вторых, они могут расстроить детей, настаивая на том, что умерший родитель все еще "с вами". |
И, наконец, умершие могут быть использованы для рассылки оставшимся в живых родственникам и друзьям напоминаний и обновлений об услугах, которые они предоставляют, – сценарий, который они описывают как "преследование мертвецов". Первоначальное ощущение комфорта от знакомого лица любимого человека может стать эмоционально истощающим, добавляют они. К существующим платформам, предлагающим услугу digital afterlife, относятся Project December и Hereafter. Но несколько крупных игроков также присматриваются к рынку. В январе 2021 года Microsoft получила патент на чат-бота, который может использовать данные человека, чтобы "отвечать как тот, кого вы знали". Доктор Катажина Новачик-Басиньска, соавтор исследования, сказала: "Стремительный прогресс в области искусственного интеллекта означает, что практически любой человек, имеющий доступ в Интернет и некоторые базовые знания, может оживить умершего близкого человека. "Эта область искусственного интеллекта представляет собой этическое минное поле. Важно уделять приоритетное внимание достоинству умершего и следить за тем, чтобы на это не покушались, например, финансовые мотивы цифровых служб загробной жизни. |
![]() |
"В то же время человек может оставить имитацию искусственного интеллекта в качестве прощального подарка для близких, которые не готовы пережить свое горе таким образом. "Права как доноров данных, так и тех, кто взаимодействует со службами загробной жизни с использованием искусственного интеллекта, должны быть в равной степени защищены". Один из возможных сценариев, названный исследователями "Манана", - это создание образа умершей бабушки без согласия "донора данных" – умершего дедушки или бабушки. После первоначального периода комфорта приложение может начать доставлять неудобства пользователю, например, предлагая сделать заказ в службе доставки еды голосом и в стиле умершего. "У людей могут возникнуть сильные эмоциональные связи с такими симуляциями, что сделает их особенно уязвимыми для манипуляций", - сказал доктор Холланек. "Следует рассмотреть методы и даже ритуалы достойного ухода из жизни дэдботов. Это может означать, например, форму цифровых похорон или другие виды церемоний, в зависимости от социального контекста. "Мы рекомендуем разработать протоколы, которые предотвращают неуважительное использование деадботов, например, для рекламы или активного присутствия в социальных сетях". |
В то время как Холланек и Новачик-Басиньска утверждают, что проектировщикам следует заручиться согласием доноров данных, прежде чем принимать решение, они утверждают, что запрет на деадботы, основанный на несогласии доноров, был бы неосуществим. Другой сценарий, описанный в статье и названный исследователями "Воспитание", предполагает, что неизлечимо больная женщина покидает deadbot, чтобы помочь своему восьмилетнему сыну справиться с горем. В то время как deadbot изначально помогает в качестве терапевтической помощи, искусственный интеллект начинает генерировать сбивающие с толку ответы, адаптируясь к потребностям ребенка, например, изображая предстоящую личную встречу. Исследователи говорят, что пользователям должны быть понятные напоминания о том, что они имеют дело с искусственным интеллектом, а также призывают ввести возрастные ограничения для деадботов. Последний сценарий в исследовании предполагает случай, когда пожилой человек тайно подписывается на своего дэдбота и оплачивает подписку сроком на двадцать лет в надежде, что это успокоит его взрослых детей и позволит внукам узнать его. |
Когда сервис запускается после смерти, один из взрослых детей не подключается к нему и получает множество электронных писем, написанных голосом своего умершего родителя. Другой подключается, но в итоге оказывается эмоционально истощенным и терзается чувством вины за судьбу deadbot, предполагают исследователи. "Крайне важно, чтобы цифровые службы загробной жизни учитывали права и согласие не только тех, кого они воссоздают, но и тех, кому придется взаимодействовать с симуляциями", - сказал доктор Холланек. Доктор Новачик-Басиньска добавила: "Нам нужно уже сейчас начать думать о том, как снизить социальные и психологические риски, связанные с цифровым бессмертием, потому что технология уже существует". |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|