Зловещий эксперимент Facebook по промыванию мозгов
Джо Роган был потрясен, узнав, что Facebook* провел секретный эксперимент над тысячами людей, который, как утверждается, довел некоторых из них до попытки самоубийства. Ребекка Лемов, историк науки и эксперт по контролю над сознанием из Гарвардского университета, рассказала в подкасте Joe Rogan Experience, что в 2012 году гигант социальных сетей незаметно изменил новостные ленты почти 700 000 пользователей.
Эти изменения сделали новостные ленты либо более позитивными, либо более негативными, позволив Facebook манипулировать эмоциями своих пользователей, чтобы изучить последствия их поведения. Платформа, принадлежащая Марку Цукербергу, заявила, что они провели недельный эксперимент, чтобы "сделать контент, который люди видят на Facebook, максимально актуальным и интересным".
Однако общественность назвала этот эксперимент "промыванием мозгов", поскольку он тайно манипулировал пользователями, контролируя содержание их новостной ленты, показывая им только эмоционально заряженные истории и потенциально причиняя психический вред.
Лемов сказал, что этот эксперимент был похож на промывание мозгов, которое проводится в культах и направлено на изменение образа мышления людей, заставляя их "улавливать" "заразительные" эмоции других. "Дело не в том, что это изменило мои мысли, а в том, что это изменило мое отношение к своим мыслям", - объяснил Лемов.
Facebook никогда не информировал 689 003 человек, чьи ленты новостей были изменены, о том, что они были вовлечены в это, и Лемов добавил, что по крайней мере один человек утверждал, что, по его мнению, их негативная новостная лента в течение периода исследования подтолкнула их к попытке самоубийства.
Несмотря на яростное возмущение общественности после того, как эксперимент стал достоянием общественности в 2014 году, эксперт по контролю над разумом отметил, что пользователи Facebook неосознанно соглашаются участвовать в этих экспериментах, когда регистрируются на платформе.
"Всякий раз, когда вы заходите на платформу, вы соглашаетесь пройти тестирование", - рассказал Лемов, автор книги "Неустойчивость истины: промывание мозгов, контроль сознания и гиперобъединение".
"Вот почему, когда эксперимент был опубликован в 2014 году, разгорелись этические дебаты", - добавила она в подкасте от 15 мая.
Исследование было проведено учеными из Корнелльского университета и Калифорнийского университета в Сан-Франциско.
В ходе эксперимента был тайно изменен алгоритм, чтобы расставить приоритеты между позитивными и негативными публикациями для разных групп, без ведома пользователей или их явного согласия.
Их целью было увидеть, как эмоции распространяются по социальным сетям, и понять, влияет ли эмоциональный тон определенного контента на собственные посты и эмоциональное состояние зрителя.
Проще говоря, ученые пытались понять, могут ли они сделать людей счастливее или подавить их, показав им измененную и предвзятую новостную ленту, направленную на то, чтобы склонить их в ту или иную сторону.
Исследование показало, что пользователи, которым был показан более позитивный контент, действительно публиковали больше позитивных обновлений, в то время как те, кому был показан более негативный контент, публиковали больше негативных обновлений.
Однако Лемов рассказал, что в 2014 году один человек написал на странице исследовательской группы в Facebook, что во время этого секретного эксперимента он находился в отделении неотложной помощи больницы и угрожал покончить с собой. Другие люди поделились подобным опытом.
"Конечно, они никогда не могли узнать, и это невозможно отследить", - объяснил эксперт, сказав, что ни у этого человека, ни у кого другого не было возможности узнать, манипулировали ли ими со стороны Facebook.
"Всякий раз, когда у людей есть власть, неконтролируемая власть и безумное влияние, особенно с целью манипулировать людьми и влиять на их умы... Вам многое может сойти с рук", - предупредил Роган.
"Независимо от того, кто вы, вы уязвимы, будь то из-за общества, из-за групп сверстников, из-за сообщества, мы уязвимы. Уязвимы все", - добавил он.
Общественный резонанс на исследование, опубликованное в журнале Proceedings of the National Academy of Sciences, даже спровоцировал расследование со стороны правительственных чиновников.
В США не было предпринято никаких прямых юридических действий, поскольку в то время считалось, что эксперимент соответствует условиям предоставления услуг Facebook, которые разрешали использование данных в исследовательских целях.
Электронный информационный центр по защите частной жизни (EPIC) - некоммерческая исследовательская группа, специализирующаяся на защите частной жизни и свободы выражения мнений в Интернете, - подала жалобу в Федеральную торговую комиссию (FTC) в 2014 году.
Они утверждали, что Facebook обманул пользователей, исказив свои методы обработки данных, и нарушил приказ FTC от 2012 года о согласии пользователей.
В жалобе утверждалось, что необъявленное исследование манипулировало эмоциями пользователей, используя данные в их новостных лентах, но жалоба так и не переросла в полномасштабный судебный процесс против Facebook.
Офис Комиссара по информации Великобритании также изучил, нарушали ли действия Facebook законы о защите данных.
Несмотря на заявления о том, что секретный проект Facebook был неэтичным, ICO не наложило на компанию никаких санкций за их спорное исследование.
Эксперимент 2012 года был не единственным случаем контроля сознания и манипулирования ничего не подозревающими людьми в Интернете.
Роган также сослался на исследование Роберта Эпштейна, у которого он взял интервью в сентябрьском выпуске своего подкаста 2024 года, в котором говорилось, что результаты поиска в Интернете могут значительно повлиять на нерешительных избирателей.
Исследование Эпштейна показало, что значительная часть онлайн-дискурса может управляться автоматизированными ботами, формирующими нарративы для политических или корпоративных целей.
Роган сослался на президентские выборы 2016 года, отметив, что если кто-то введет в Google запрос "является ли Хиллари Клинтон преступницей?", поисковая система выдаст результаты, связанные только с тем, что Дональд Трамп является предполагаемым преступником.
"Вы бы ничего не нашли о Хиллари Клинтон. Вам нужно было продолжать копать, копать и копать. Если бы вы хотели найти что-то положительное о Хиллари Клинтон, вы могли бы найти это довольно легко", - объяснил Роган.
Роган утверждал, что лишь немногие поисковые браузеры в Интернете позволяют людям искать так называемые "спорные" темы.
По словам ведущего подкаста, популярные браузеры, такие как Google, изменяют результаты поиска в попытке подвергнуть цензуре то, что он назвал недобросовестной информацией.
"Ложная информация - это информация, которая верна, но в конечном счете она может нанести вред. Они относят побочные эффекты вакцины к ложной информации, потому что это может вызвать сомнения в отношении вакцины", - сказал Роган.
В январе 2025 года Meta объявила, что прекращает свою стороннюю программу проверки фактов, начиная с США, из-за сохраняющихся опасений, что их кампания по цензуре в Facebook препятствует свободе слова.
* - Деятельность Facebook в России признана экстремистской и запрещена.