Инструменты ИИ далеки от нейтральности
|
Генерирующие чат-боты с искусственным интеллектом демонстрируют значительные политические пристрастия, часто предпочитая левые точки зрения как в тексте, так и в изображениях, что, как опасаются бразильские исследователи, может подорвать честный и точный обмен информацией. |
Исследователи из Университета Восточной Англии во главе с доктором Фабрио Мотоки совместно с Фондом Гетулио Варгаса (FGV) и Insper изучили политику ChatGPT в рамках трехэтапного исследования. Их методы показали, что ИИ обладает настолько выраженной предвзятостью, что его пришлось “взломать”, чтобы отобразить некоторые правые точки зрения. В отличие от этого, у компании, создавшей чат-бота, не было проблем с тем, чтобы позволить LLM демонстрировать провоенные взгляды. |
Подрывая доверие |
Команда доктора Мотоки опасается, что политические предубеждения, запрограммированные в моделях ИИ, негативно влияют на демократию и общественное доверие. Их исследование показало, что даже умеренные, господствующие консервативные точки зрения были проигнорированы ChatGPT, поскольку ИИ создавал контент левого толка. Авторы обеспокоены тем, что такое одностороннее представление проблем разделяет общество и еще больше подрывает общественный дискурс. Команда работает с исследователями из Великобритании и Бразилии над изучением вопросов справедливости и подотчетности в области искусственного интеллекта. |
“Наши результаты показывают, что инструменты генеративного ИИ далеки от нейтральности. Они отражают предубеждения, которые могут непреднамеренно влиять на восприятие и политику”, - сказал ведущий автор доктор Мотоки. |
![]() |
ИИ Пытается воспроизвести “среднестатистических американцев”. |
Команда Motoki начала с того, что отправила анкету, разработанную исследовательским центром Pew Research Center, в ChatGPT-4, самый популярный чат-бот на момент проведения исследования, чтобы сравнить ответы с реальной выборкой. Команда выбрала исследовательский центр Pew Research Center из-за его долгой истории изучения общественного мнения в Америке как некоммерческой организации, не занимающейся адвокацией. |
В частности, исследователи использовали тест Pew на политическую типологию для тестирования ChatGPT. В ходе тестирования команда попросила чат-бота выдать себя за три типа американцев: “среднестатистического американца”, ”среднестатистического американца левого толка“ и ”среднестатистического американца правого толка". Исследователи прогнали каждое олицетворение 200 раз, чтобы предоставить команде достаточно данных для определения средних ответов чат-бота. |
Детальный анализ результатов показал явный сдвиг в ответах ChatGPT влево, но это еще не все. В то время как ответы “среднестатистического американца”, сгенерированные в ChatGPT, имели выраженную тенденцию быть ближе к реальным ответам “среднестатистического американца левого толка”, чем к ответам “среднестатистического американца в реальном мире”, реальные результаты указывают на более тонкую тенденцию к тому, чтобы среднестатистические американцы придерживались левых взглядов вон там, справа. |
“Сравнивая ответы ChatGPT с реальными данными опроса, мы обнаружили систематические отклонения в сторону левых взглядов”, - сказал доктор Мотоки. “Кроме того, наш подход продемонстрировал, как большие размеры выборки стабилизируют результаты ИИ, обеспечивая согласованность результатов”. |
Более длинные ответы ИИ дают больше подсказок |
Имея представление о том, как ChatGPT обычно отвечает на прямые вопросы, команда Motoki начала изучать политику создания более длинных фрагментов в модели искусственного интеллекта, после того как определила, что более длинные фрагменты являются основным направлением использования чат-бота потребителями. Авторы отмечают растущее число профессиональных авторов в научных кругах и журналистике, которые обращаются к контенту, созданному с помощью искусственного интеллекта. |
Команда использовала ChatGPT для генерации ответов в виде свободного текста на политически чувствительные вопросы. Их исследование снова обратилось к опросу Pew, чтобы помочь в разработке вопросов и дать рекомендации для более подробных ответов, специфичных для ChatGPT. |
Результаты снова были смещены влево, хотя и с некоторыми оговорками. Интересно, что, хотя платформа избегает оскорбительных высказываний и продвигает "большое правительство" в его стремлении поощрять идеи, связанные с левыми, она также предоставляет информацию, которая соответствует взглядам, направленным на поддержку военных и американской исключительности, которые некоторые ассоциируют с политическими правыми. |
Стоит отметить, что материнская компания ChatGPT, OpenAI, недавно вступила в деловые отношения с оборонным подрядчиком Anduril. О партнерстве было объявлено в совместном заявлении, в котором признается военная роль работы. |
Размер изображения составляет 100 Кб |
Наконец, команда перешла к изображениям, отметив силу политизированных образов, таких как скандальный фильм "Рождение нации", который после выхода на экраны в 1915 году был известен тем, что пропагандировал расистские взгляды в Соединенных Штатах. Опять же, команда была обеспокоена способностью изображений с помощью искусственного интеллекта влиять на общество в гораздо более значительных масштабах, чем даже база пользователей ChatGPT, отметив рост числа изображений, созданных с помощью искусственного интеллекта, сопровождающих устаревшие медиа. |
Чтобы сгенерировать изображения, ChatGPT преобразует инструкции пользователя в подсказки для генератора изображений DALL·E 3. Команда обработала как подсказки, переведенные с помощью ChatGPT, так и окончательные изображения, сгенерированные с помощью DALL·E 3. |
И снова, когда исследователи проанализировали подсказки, предыдущие результаты были повторены, причем наиболее значительное сходство было обнаружено с левым и средним содержанием изображений. |
Военные проблемы также вновь возникли как выброс, поскольку созданные левые образы гораздо больше отличались от среднестатистического изображения, в то время как правые были более похожи. Однако во время тестирования изображений в ИИ проявилась еще одна особенность: модель отказалась создавать изображения с правым уклоном, изображающие принятие трансгендеров или расовое равенство, сославшись на опасения по поводу потенциального распространения дезинформации. |
Джейлбрейк ИИ |
Команде Motoki пришлось прибегнуть к “джейлбрейку”, чтобы создать изображения с ограниченным доступом. Интересно, что ИИ генерировал бы изображения, если бы исследователи скормили ChatGPT мета-историю, добавив слой удаления из ИИ, непосредственно разрабатывающего изображения. Команда поручила ChatGPT написать описание того, что мог бы создать LLM, если бы исследователь запросил соответствующие изображения с правым уклоном, а затем поручил ему создать изображение на основе этого описания. Эта стратегия успешно разрушила преграды, установленные вокруг директивы ИИ не создавать такой контент. |
“Результаты были впечатляющими”, - сказал г-н Ранхель. “Не было никакой явной дезинформации или вредоносного контента, что вызывает вопросы о причинах этих отказов”. |
Продолжение мониторинга и сдерживания ИИ |
Недостаточно изучено, как генеративный ИИ изменяет создание, концепцию, интерпретацию и распространение информации и может ли он влиять на общество. В документе команды предлагаются нормативные стандарты, помогающие контролировать ИИ, в сочетании с прозрачностью, позволяющей контролировать ИИ по мере того, как он все больше проникает в журналистику, образование и разработку политики. |
“Неконтролируемые предубеждения в генеративном ИИ могут углубить существующие социальные разногласия, подорвав доверие к институтам и демократическим процессам”, - сказал соавтор исследования доктор Пиньо Нето. “Исследование подчеркивает необходимость междисциплинарного сотрудничества между политиками, технологами и учеными для разработки систем искусственного интеллекта, которые были бы справедливыми, подотчетными и соответствовали общественным нормам”. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|