Управление ИИ с помощью справедливости
|
Согласно новому исследованию, проведенному университетом Пенсильвании, внедрение системы обеспечения равенства в области искусственного интеллекта (ИИ) необходимо для того, чтобы повысить значимость мнений сообществ, которые могут затеряться в меняющемся цифровом ландшафте, формируемом алгоритмическими искажениями, дезинформацией и целенаправленным политическим влиянием. |
Из-за отсутствия политики и нормативных актов, касающихся социальных сетей и искусственного интеллекта, в прошлые годы политические группы все чаще использовали платформы, подобные TikTok, для влияния на избирателей, главным образом представителей поколения Z, используя дезинформацию, пропаганду или нацеливаясь на уязвимые группы, которые не соответствуют их политическим взглядам. |
Теперь исследователь права Дикинсон из Пенсильванского университета предложил систему регулирования “справедливости по замыслу” (AI), которая поможет защитить маргинализированные сообщества от потенциального вреда. |
В статье, опубликованной 28 января в журнале Duke Technology Law Review, Дэрил Лим, заведующий юридическим факультетом имени Х. Лэдди Монтегю-младшего и заместитель декана по исследованиям и инновациям Института вычислительной техники и данных Университета штата Пенсильвания (ICDS), подчеркнул необходимость социально ответственного управления ИИ, в котором приоритетными являются этика, справедливость, и прозрачность. |
![]() |
Извлекать уроки из прошлых политических ошибок |
С появлением платформ социальных сетей, созданных крупными технологическими конгломератами, американское правительство и законодатели не сразу поняли, как эти сети влияют не только на общественное мнение, распространение дезинформации и экстремистские политические взгляды, но и на то, как убеждения пользователей могут способствовать дискриминации или маргинализации тех, кто выглядит или мыслит иначе. |
В первые годы существования социальных сетей, в период с 2005 по 2008 год, государственные органы в основном рассматривали эти платформы как инструменты вовлечения общественности, а не как объекты политического регулирования. Однако в период с 2009 по 2010 год администрация Обамы осознала необходимость разработки руководящих принципов в отношении социальных сетей и запустила “Инициативу открытого правительства”, направленную на содействие прозрачности, участию и сотрудничеству. По мере того как социальные сети приобретали широкое влияние по всей территории Соединенных Штатов, растущая глобальная обеспокоенность по поводу дезинформации и разжигания ненависти вызвала дискуссии о надзоре со стороны регулирующих органов. В 2010 году Федеральная торговая комиссия (FTC) расширила свою роль в обеспечении защиты конфиденциальности потребителей в цифровом пространстве. |
К началу 2010-х годов предвзятость в кодировании стала важной темой для обсуждения, поскольку исследователи и организации, выступающие за равенство, заметили, что маргинализированные сообщества, такие как чернокожие, коренные народы и цветные люди (BIPOC), женщины и другие группы, подвергающиеся стигматизации, не были адекватно представлены в наборах данных о кодировании, что, в свою очередь, привело к предубеждения в моделях искусственного интеллекта (ИИ) и машинного обучения. |
В связи с тем, что изменения в политике не поспевали за быстро развивающимся технологическим ландшафтом, к 2016 году примерно 51 процент компаний внедрили политику в отношении социальных сетей, в результате чего почти половина из них осталась без каких-либо официальных рекомендаций. В результате многие компании и сотрудники могли свободно размещать посты, выступать и представлять либо свой бренд, либо самих себя так, как они считали нужным, часто без четких границ или последствий. |
Примерно в 2018 году компания Meta (бывшая Facebook) и ее основатель и генеральный директор Марк Цукерберг начали применять более строгие правила в отношении контента, направленные на борьбу с дезинформацией и разжиганием ненависти. Это стремление к ужесточению правил усилилось после президентских выборов в США в 2016 году, на которых Дональд Трамп победил Хиллари Клинтон, и в результате Трамп стал 45-м президентом Соединенных Штатов. |
Как неравенство в области искусственного интеллекта и социальных сетей становится политическим |
Перенесемся в 2024 год. Илон Маск и недавно переизбранный президент Дональд Трамп успешно использовали изображения, созданные с помощью искусственного интеллекта, и социальные сети, чтобы повлиять на общественное мнение перед выборами 2024 года. В дополнение к этим инструментам, TikTok также использовался в качестве платформы для прямого общения с избирателями поколения Z. Используя образы, созданные с помощью искусственного интеллекта, используя культуру мемов и сотрудничая с влиятельными лицами в социальных сетях, Трамп эффективно донес свои политические идеи до аудитории, которую он изо всех сил пытался охватить во время своей первой президентской кампании. |
Поколение Z (в возрасте от 18 до 29 лет) продемонстрировало заметную динамику голосования на недавних выборах, в котором приняли участие около 42 процентов молодых избирателей — по сравнению с 50-процентной явкой в 2020 году, которая соответствовала показателям 2016 года. |
Значительный сдвиг в роли социальных сетей и искусственного интеллекта произошел, когда Илон Маск приобрел компанию X (ранее Twitter). Вскоре после покупки Маск уволил большую часть сотрудников Twitter, а позже опубликовал то, что сейчас обычно называют “файлами Twitter”. Эта серия раскрытий, состоящая из внутренних документов и сообщений, была опубликована независимыми журналистами — в первую очередь Мэттом Тайбби и Бари Вайссом — после приобретения Маском платформы в 2022 году. Эти документы раскрывали внутренние процессы принятия решений в Twitter, в частности, касающиеся модерации контента, цензуры и взаимодействия платформы с правительственными учреждениями. |
Продолжаются споры о том, способствовало ли поглощение Маском платформы социальных сетей истинной свободе слова при ограниченном регулировании или, наоборот, создало среду, в которой к разжиганию ненависти относились терпимо, а экстремистские группировки нашли место для обмена своими идеологиями и общения с единомышленниками. Исследование, проведенное Государственным университетом Монтклер, показало, что за первые 12 часов после приобретения Маска количество твитов, содержащих разжигающие ненависть высказывания, выросло примерно до 4778 — по сравнению со средним показателем в 84 твита в час неделей ранее. Этот всплеск в конечном счете дал понять пользователям и другим технологическим компаниям, что неравенство по-прежнему глубоко укоренилось в этических рамках X как недавно переименованной платформы социальных сетей под руководством Маска. |
После покупки социальной сети Маск выступил в свою защиту, заявив в 2024 году, что “Свобода слова - это основа демократии". Вот почему это ПЕРВАЯ поправка. Без свободы слова все потеряно”. |
В то время как споры вокруг X разгорались, другие приложения для социальных сетей, такие как META, продолжали внедрять руководящие принципы политики в отношении разжигания ненависти. Однако ранее в этом году, еще до того, как начала формироваться новая администрация Трампа, Марк Цукерберг, генеральный директор META, рассказал подкастеру Джо Рогану, что администрация Байдена не только настаивала на контроле определенной информации, касающейся пандемии коронавируса, но и активно работала над цензурой других форм контента, размещаемого на платформе, поднимая вопросы о повестке дня администрации Байдена. |
Вскоре после интервью Цукерберга в подкасте Дональд Трамп был приведен к присяге в качестве 47-го президента США в окружении миллиардеров и руководителей технологических компаний, включая Илона Маска, Марка Цукерберга, основателя Amazon Джеффа Безоса, генерального директора Apple Тима Кука, генерального директора Google Сундара Пичаи и генерального директора OpenAI Сэма Альтмана. Присутствие этих лидеров отрасли подчеркивало их приверженность новой администрации и онлайн-культуре, которую стремился развивать Трамп. Одной из мер политики администрации было внедрение двухгендерных формулировок в материалах, связанных со здравоохранением, и в политическом дискурсе, что в очередной раз отодвинуло маргинализированные сообщества на второй план и усилило их изоляцию. |
Что это означает для равенства в Интернете? Обе политические партии были вовлечены в цензуру контента и формирование нарративов в угоду своим собственным интересам, давая понять, что достижение истинного равенства требует сбалансированного подхода. Решение проблемы отношения к маргинализированным сообществам с помощью искусственного интеллекта и платформ социальных сетей — это не узкопартийный вопрос, а более широкая социальная задача. В дальнейшем ученые, маргинализированные группы и политики должны сотрудничать для разработки справедливой и инклюзивной политики, отражающей реалии повседневной жизни в Северной Америке. |
Что может ожидать “Справедливость по замыслу” в будущем |
История показала, что, когда технологии и политика не работают в тандеме, политические силы могут использовать технологии для манипулирования общественным мнением или нацеливания на маргинализированные сообщества, включая женщин, представителей ЛГБТК+ и группы BIPOC. |
Участники опроса обратились к Лиму, одному из ведущих ученых, работающих над системой обеспечения равенства в Университете штата Пенсильвания, чтобы узнать, как технологические компании, президент Трамп (или любые другие политические лидеры или партии США) и правительственные учреждения могут сотрудничать в использовании искусственного интеллекта и социальных сетей в качестве инструментов пропаганды, потенциально изменяя общественные ценности и культурные установки. |
“Потенциал использования ИИ и социальных сетей в качестве инструментов пропаганды для изменения общественных ценностей и морали существует”, - написал Лим в электронном письме, пояснив, что его недавнее исследование “обеспечивает основу для этого аргумента, подчеркивая влияние ИИ на управление, предвзятость и принятие решений”. |
Учитывая, что такой сценарий вполне возможен, такие эксперты, как Лим, считают, что приоритетной задачей должно стать установление равноправия между двумя партиями. Это обсуждение должно выйти за рамки Конгресса и охватить все правительственные учреждения. Представительство и язык имеют значение не только для нынешнего поколения, но и для тех, кто придет за ним. Цель, по сути, должна заключаться в том, чтобы помочь вселить веру в технологические достижения, не опасаясь манипуляций, маргинализации или политического влияния, которые подрывают истинное равенство. |
“Непрозрачность контента, основанного на ИИ, и ограниченный надзор со стороны регулирующих органов позволяют правительствам и технологическим компаниям координировать свои действия, влияя на общественные нормы с течением времени”, - сказал Лим. “Однако обеспечение прозрачности, подотчетности и этического управления ИИ может стать гарантией от таких рисков”. |
Концепция, предложенная Лимом в его недавней статье, направлена на снижение рисков, связанных с дискриминацией и предвзятостью, укрепление общественного доверия и продвижение инноваций. По словам Лима, внедрение политики равенства на протяжении всего жизненного цикла ИИ поможет свести к минимуму предвзятость ИИ и способствовать обеспечению справедливости для всех, уделяя особое внимание маргинализированным группам в прошлом и настоящем. |
“Быть социально ответственным в отношении ИИ означает разрабатывать, внедрять и использовать технологии ИИ этичным, прозрачным и выгодным образом”, - недавно сказал Лим в ответе на вопросы, опубликованном на веб-сайте университета Пенсильвании. “Это гарантирует, что системы искусственного интеллекта уважают права человека, поддерживают справедливость и не увековечивают предубеждения или дискриминацию”. |
“Эта ответственность распространяется на подотчетность, защиту частной жизни, инклюзивность и экологические соображения”, - добавил Лим. |
“Это важно, потому что искусственный интеллект оказывает значительное влияние на отдельных людей и сообщества. Уделяя приоритетное внимание социальной ответственности, мы можем снизить такие риски, как дискриминация, предубеждения и вторжение в частную жизнь, укрепить общественное доверие и гарантировать, что технологии искусственного интеллекта смогут внести позитивный вклад в развитие мира”, - сказал Лим в онлайн-опросе. - Внедряя социальную ответственность в управление ИИ, мы можем способствовать инновациям, защищая при этом права и интересы всех заинтересованных сторон”. |
Выступая за активное управление, прозрачность и индивидуальное регулирование, призывая политиков и ученых-юристов привести ИИ в соответствие с ценностями социальной справедливости и верховенства закона, Лим утверждает, что равенство ИИ - это проблема не только Северной Америки, но и всего мира. В качестве основного примера Лим ссылается на Рамочную конвенцию об искусственном интеллекте, подписанную США и ЕС, в которой основное внимание уделяется правам человека, демократии и надзору за приложениями ИИ с высокой степенью риска. |
“Этот договор по ИИ стал важной вехой в создании глобальной основы для обеспечения того, чтобы системы ИИ уважали права человека, демократию и верховенство закона”, - сказал Лим. “В договоре прописан подход, основанный на оценке рисков, требующий усиления надзора за приложениями ИИ с высокой степенью риска в таких чувствительных секторах, как здравоохранение и уголовное правосудие. В договоре также подробно описывается, как разные регионы — в частности, США, ЕС, Китай и Сингапур — по-разному подходят к управлению ИИ”. |
В первую очередь, Lim выступает за активное управление ИИ, делая упор на прозрачность, справедливость и индивидуальное регулирование, чтобы привести системы ИИ в соответствие с общественными ценностями и верховенством закона. Его концепция equity by design объединяет справедливость, равноправие и инклюзивность на протяжении всего жизненного цикла ИИ, а не фокусируется исключительно на защите после внедрения, одновременно призывая к проведению аудита справедливости, чтобы убедиться, что системы ИИ проходят проверку на сдержки и противовесы перед внедрением, устраняя потенциальные расовые, гендерные и географические предубеждения. |
Что касается потенциальных решений, Лим также говорит, что было бы полезно увеличить разнообразие при приеме на работу на должности разработчиков искусственного интеллекта, а также провести сторонние аудиты для устранения неосознанных предубеждений и улучшения результатов. |
По сути, Лим подчеркивает, что, хотя изменения в политике требуют времени, маргинализированные сообщества и правозащитные группы должны иметь право голоса в формировании управления ИИ, чтобы гарантировать, что технологии продвигают права человека для всех. |
“Люди, которые собирают данные, могут быть предвзятыми, и это может усугубить неравенство, независимо от того, проявляется ли предвзятость в виде расовых, гендерных или географических предубеждений”, - сказал Лим во время недавнего опроса в Пенсильванском университете. |
“Решением, - добавил Лим, - могло бы стать привлечение широкой группы людей, осведомленных о различных предубеждениях и способных выявлять неосознанные предубеждения, или привлечение третьих сторон для изучения того, как внедряются системы, и предоставления обратной связи для улучшения результатов”. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|