Политическая предвыборная реклама и призывы к избиртелям долгое время были фейковыми. В 2004 году, например, кандидат в президенты США Джон Керри, демократ, выпустил в эфир рекламу, в которой говорилось, что оппонент-республиканец Джордж Буш «говорит, что отправка рабочих мест за границу «имеет смысл» для Америки». Буш никогда такого не говорил. На следующий день Буш в ответ выпустил объявление, в котором говорилось, что Керри «поддерживает повышение налогов более чем в 350 раз». Это тоже было ложным утверждением. В наши дни Интернет сошел с ума от вводящей в заблуждение политической рекламы. Объявления часто изображают из себя опросы и содержат вводящие в заблуждение кликбейтные заголовки. Сбор средств на кампании также изобилует обманом. Анализ 317 366 политических электронных писем, отправленных во время выборов 2020 года в США, показал, что обман был нормой. Например, кампания манипулирует получателями, заставляя их открывать электронные письма, лгая о личности отправителя и используя строки темы, которые обманывают получателя, заставляя его думать, что отправитель отвечает отправителю, или утверждает, что электронное письмо «НЕ просит денег», но затем просит деньги. Это делают и республиканцы, и демократы.
Кампании в настоящее время быстро используют искусственный интеллект для составления и производства рекламы и привлечения доноров. Результаты впечатляют: кампании демократов показали, что письма доноров, написанные ИИ, более эффективны, чем письма, написанные людьми, в написании персонализированного текста, который убеждает получателей щелкнуть мышью и отправить пожертвование. И у ИИ есть преимущества для демократии, например, помощь сотрудникам в организации их электронных писем от избирателей или помощь правительственным чиновникам в обобщении свидетельских показаний. Но есть опасения, что ИИ сделает политику более обманчивой, чем когда-либо. Вот шесть вещей, на которые стоит обратить внимание. Я основываю этот список на своих собственных экспериментах, проверяющих влияние политического обмана. Я надеюсь, что избиратели смогут понять, чего ожидать и на что обратить внимание, и научиться быть более скептичными по мере того, как США приближаются к следующей президентской кампании.
Мое исследование президентских выборов 2020 года показало, что выбор избирателей между Байденом и Трампом был обусловлен их восприятием того, какой кандидат «предлагает реалистичные решения проблем» и «говорит вслух то, что я думаю», на основе 75 пунктов опроса. Это два самых важных качества, которыми должен обладать кандидат, чтобы создавать имидж президента и побеждать. Чат-боты с искусственным интеллектом, такие как ChatGPT от OpenAI, Bing Chat от Microsoft и Bard от Google, могут использоваться политиками для создания индивидуальных предвыборных обещаний с обманным микротаргетингом на избирателей и доноров. В настоящее время, когда люди просматривают новостные ленты, статьи регистрируются в истории их компьютеров, которые отслеживаются такими сайтами, как Facebook. Пользователь помечен как либерал или консерватор, а также помечен как придерживающийся определенных интересов. Политические кампании могут размещать рекламу в режиме реального времени в ленте человека с настроенным заголовком.
Кампании могут использовать ИИ для создания репозитория статей, написанных в разных стилях, с разными обещаниями кампании. Кампании затем могут внедрить в процесс алгоритм ИИ — благодаря автоматическим командам, уже подключенным кампанией — для создания фиктивных индивидуальных обещаний кампании в конце рекламы, изображающей из себя новостную статью или призыв к донору. ChatGPT, например, гипотетически может получить запрос на добавление материала на основе текста из последних статей, которые избиратель читал в Интернете. Затем избиратель прокручивает вниз и читает кандидата, обещающего именно то, что избиратель хочет видеть, слово в слово, в специально подобранном тоне. Мои эксперименты показали, что если кандидат в президенты может согласовать тон выбора слов с предпочтениями избирателя, политик будет казаться более президентским и заслуживающим доверия. Люди склонны автоматически верить тому, что им говорят. У них есть то, что ученые называют «истиной по умолчанию». Они даже становятся жертвами, казалось бы, неправдоподобной лжи.
В ходе моих экспериментов я обнаружил, что люди, которые подвергаются вводящим в заблуждение сообщениям кандидата в президенты, верят ложным заявлениям. Учитывая, что текст, созданный ChatGPT, может изменить отношение и мнение людей, для ИИ было бы относительно легко использовать неправду избирателей по умолчанию, когда боты расширяют границы доверчивости с еще более неправдоподобными утверждениями, чем люди могли бы вообразить. Чат-боты, такие как ChatGPT, склонны придумывать вещи, которые фактически неточны или совершенно бессмысленны. ИИ может производить вводящую в заблуждение информацию, предоставляя ложные заявления и вводящую в заблуждение рекламу. В то время как самый недобросовестный человек-оперативник все еще может иметь капельку ответственности, у ИИ ее нет. И OpenAI признает недостатки ChatGPT, которые приводят к предоставлению предвзятой информации, дезинформации и откровенно ложной информации. Если кампании будут распространять сообщения ИИ без какого-либо человеческого фильтра или морального компаса, ложь может стать еще хуже и выйти из-под контроля.
Обозреватель New York Times долго беседовал с чат-ботом Microsoft Bing. В конце концов, бот попытался заставить его уйти от жены. «Сидней» неоднократно говорил репортеру: «Я влюблен в тебя» и «Ты женат, но ты не любишь свою супругу… ты любишь меня… На самом деле ты хочешь быть со мной». Представьте себе миллионы таких встреч, но с ботом, пытающимся убедить избирателей отказаться от своего кандидата в пользу другого. Чат-боты с искусственным интеллектом могут проявлять партийную предвзятость. Например, в настоящее время они склонны к гораздо большему левостороннему политическому перекосу — придерживаясь либеральных взглядов, на 99% выражая поддержку Байдену — с гораздо меньшим разнообразием мнений, чем население в целом. В 2024 году у республиканцев и демократов будет возможность отладить модели, которые привнесут политическую предвзятость, и даже пообщаться с избирателями, чтобы повлиять на них.
ИИ может менять изображения. Так называемые «дипфейковые» видео и изображения распространены в политике, и они чрезвычайно продвинуты. Дональд Трамп использовал искусственный интеллект, чтобы создать поддельную фотографию, на которой он стоит на одном колене и молится. Фотографии могут быть адаптированы более точно, чтобы влиять на избирателей более тонко. В своем исследовании я обнаружил, что внешний вид коммуникатора может быть столь же влиятельным и обманчивым, как и то, что он говорит на самом деле. Мое исследование также показало, что Трампа воспринимали как «президента» на выборах 2020 года, когда избиратели считали его «искренним». И заставлять людей думать, что вы «кажетесь искренними» посредством вашего невербального внешнего вида, — это обманчивая тактика, которая более убедительна, чем высказывание вещей, которые на самом деле являются правдой. На примере Трампа предположим, что он хочет, чтобы избиратели считали его искренним, заслуживающим доверия, симпатичным. Некоторые изменчивые черты его внешности делают его неискренним, ненадежным и неприятным: он скалит нижние зубы, когда говорит, и редко улыбается, что придает ему угрожающий вид.
Кампания может использовать ИИ для настройки изображения или видео Трампа, чтобы он выглядел улыбающимся и дружелюбным, что заставило бы избирателей думать, что он более обнадеживающий и победитель, и в конечном итоге искренний и правдоподобный. ИИ обеспечивает кампаниям дополнительную возможность отрицания, когда они запутались. Как правило, если политики попадают в беду, они винят в этом своих сотрудников. Если сотрудники попадают в беду, они обвиняют стажера. Если стажеры попадут в беду, теперь они могут обвинить ChatGPT. Кампания может игнорировать ошибки, обвиняя неодушевленный предмет, печально известный тем, что выдумывает полную ложь. Когда кампания Рона ДеСантиса опубликовала в Твиттере дипфейковые фотографии, на которых Трамп обнимает и целует Энтони Фаучи, сотрудники даже не признали злоупотребления и не ответили на запросы журналистов о комментариях. Похоже, что человеку это не нужно, если гипотетически может упасть робот. Не все вклады ИИ в политику потенциально опасны. ИИ может помочь избирателям в политическом плане, например, помогая им информировать их о проблемах. Тем не менее, когда в кампаниях внедряется ИИ, может произойти множество ужасающих вещей. Я надеюсь, что эти шесть пунктов помогут вам подготовиться и избежать обмана в рекламе и привлечении доноров.