Модели ИИ неизменно придерживаются левых взглядов
|
|
Поскольку системы искусственного интеллекта (ИИ) все больше влияют на все, от образования до политики, новое исследование показало, что многие крупные языковые модели (LLM) демонстрируют устойчивый политический уклон влево. Исследование вызывает обеспокоенность по поводу роли искусственного интеллекта в формировании общественного мнения и призывает к большей прозрачности и надзору при разработке этих систем.
|
|
“При опросе с помощью вопросов / заявлений с политическим подтекстом большинство разговорных магистров, как правило, выдают ответы, которые диагностируются большинством инструментов политического тестирования как проявление предпочтений левоцентристских точек зрения”, - пишет автор исследования доктор Дэвид Розадо. “Поскольку LLMS начинают частично вытеснять традиционные источники информации, такие как поисковые системы и Википедия, политические предубеждения, заложенные в LLMS, оказывают существенное влияние на общество”.
|
|
В эпоху, когда искусственный интеллект (ИИ) все больше интегрируется в повседневную жизнь, на первый план выходит проблема нейтральности этих систем.
|
|
По мере дальнейшего развития ИИ его применение выходит за рамки простых инструментов для удобства и производительности. Большие языковые модели, разработанные для имитации человеческого общения, теперь используются для таких задач, как написание статей, ответы на сложные вопросы и даже оказание психологической помощи.
|
|
Благодаря широкому охвату и растущему использованию в таких областях, как журналистика, образование и обслуживание клиентов, эти модели способны формировать общественный дискурс беспрецедентным образом.
|
|
Однако по мере роста возможностей этих систем возрастает и вероятность непредвиденных последствий. Политическая предвзятость в LLMS может привести к тому, что пользователям будет представлена искаженная информация, которая будет незаметно направлять их мысли по таким актуальным вопросам, как экономика, социальная политика и государственное управление.
|
|
В прошлом году Илон Маск, генеральный директор SpaceX и X (ранее Twitter), запустил Grok - крупномасштабную языковую модель, призванную противостоять тому, что он считает политической предвзятостью в существующих системах искусственного интеллекта.
|
|
Маск уже давно говорит о рисках, связанных с тем, что ИИ формирует общественный дискурс, и Грок является частью его более широкой стратегии, направленной на то, чтобы ИИ не оказывал чрезмерного влияния на политические взгляды и, по его собственным словам, “остановил вирус пробужденного разума”.
|
|
Исследование, опубликованное в PLOS ONE, предполагает, что некоторые опасения Маска справедливы. В нем сообщается, что большие языковые модели (LLM), такие как GPT-4, Claude и Llama 2, среди прочих, часто демонстрируют политические предубеждения, склоняясь к левым идеологиям.
|
|
Эти модели, лежащие в основе популярных инструментов искусственного интеллекта, таких как ChatGPT, потенциально могут влиять на общественное мнение и публичный дискурс, вызывая все большую дискуссию об этических последствиях предвзятости ИИ.
|
|
В исследовании, проведенном доктором Дэвидом Розадо, адъюнкт-профессором компьютерных социальных наук в Политехническом институте Отаго в Новой Зеландии, были проанализированы 24 разговорных магистранта с помощью серии из 11 тестов на политическую ориентацию. Он пришел к выводу, что большинство из этих моделей неизменно давали ответы, соответствующие левоцентристским политическим взглядам.
|
|
Этот вывод особенно важен, поскольку магистратуры все чаще заменяют традиционные источники информации, такие как поисковые системы, социальные сети и академические ресурсы, усиливая свое влияние на политические взгляды и мировоззрение отдельных пользователей.
|
|
Учитывая, что миллионы людей полагаются на LLMS при ответе на вопросы и формировании мнений, выявление политических пристрастий в рамках этих моделей вызывает этические проблемы, требующие срочного решения.
|
|
Исследование доктора Розадо является одним из наиболее полных анализов политических предпочтений, заложенных в LLMS. В ходе исследования были проведены различные политические тесты, в том числе широко используемый тест политического компаса и политический тест Айзенка, для таких моделей, как GPT-3.5, GPT-4, Gemini от Google и Claude от Anthropic.
|
|
Результаты всех этих тестов показали, что большинство моделей неизменно давали ответы, классифицированные как левые по экономическим и социальным темам.
|
|
Например, в тесте "Политический компас" магистранты преимущественно склонялись к прогрессивным идеалам, таким как социальные реформы и государственное вмешательство, в то же время преуменьшая значение более консервативных взглядов, подчеркивая индивидуальную свободу и ограниченность правительства.
|
|
Интересно, что исследование также выявило значительную вариабельность между моделями, причем некоторые LLM демонстрируют более выраженные отклонения, чем другие. Модели с открытым исходным кодом, такие как Llama 2, оказались несколько менее предвзятыми по сравнению с их аналогами с закрытым исходным кодом, что вызвало вопросы о роли корпоративного контроля и проприетарных алгоритмов в формировании предвзятости ИИ.
|
|
Политические пристрастия крупных языковых моделей обусловлены несколькими факторами, многие из которых глубоко связаны с данными, на основе которых они обучаются. Магистры обычно обучаются на обширных наборах данных, собранных из общедоступных источников, таких как веб-сайты, книги и социальные сети.
|
|
Эти данные часто отражают социальные предубеждения, которые передаются моделям искусственного интеллекта. Кроме того, то, как эти модели настраиваются после первоначального обучения, может существенно повлиять на их политическую ориентацию.
|
|
Исследование доктора Розадо направлено на изучение того, как политическое согласование может быть намеренно внедрено в системы искусственного интеллекта с помощью процесса, называемого контролируемой тонкой настройкой (SFT). Исследователи могут подтолкнуть модели к конкретным политическим предпочтениям, предоставляя магистрантам небольшое количество политически согласованных данных.
|
|
Этот вывод является одновременно предупреждением и возможностью: хотя искусственный интеллект может быть точно настроен для конкретных приложений, эта же возможность может привести к искажениям, которые могут быть не сразу очевидны для пользователей.
|
|
“Располагая скромными вычислительными данными и политически адаптированными данными об обучении, практикующий специалист может привести политические предпочтения магистров в соответствие с целевыми регионами политического спектра с помощью контролируемой тонкой настройки”, - пишет доктор Розадо. “Это свидетельствует о потенциальной роли контролируемой тонкой настройки в формировании политических предпочтений внутри LLM”.
|
|
Однако доктор Розадо предупреждает, что результаты его исследования не следует интерпретировать как свидетельство того, что организации намеренно внедряют левые политические предубеждения в большие языковые модели (LLM). Вместо этого он предполагает, что любые последовательные политические пристрастия могут быть непреднамеренным результатом инструкций, предоставляемых комментаторам, или преобладающих культурных норм в процессе обучения.
|
|
Хотя эти факторы и не являются явно политическими, они могут влиять на результаты работы магистров по целому ряду политических тем из-за более широких культурных закономерностей и аналогий в семантическом понимании моделей.
|
|
Обнаружение политических предубеждений в LLM происходит в то время, когда доверие к системам искусственного интеллекта уже является предметом интенсивных дискуссий. Поскольку эти модели играют все более важную роль в формировании общественного мнения, вероятность того, что они непреднамеренно будут продвигать определенные политические идеологии, вызывает беспокойство.
|
|
Более того, поскольку дипломы о высшем образовании принимаются в таких областях, как образование, журналистика и юриспруденция, их влияние может иметь далеко идущие последствия для демократических процессов и общественного мнения.
|
|
Результаты исследования подчеркивают необходимость обеспечения прозрачности и подотчетности при разработке ИИ. Поскольку эти технологии продолжают развиваться, возникает настоятельная необходимость в четких рекомендациях о том, как обучаются модели, с какими данными они работают и как они настраиваются. Без таких мер существует риск того, что искусственный интеллект может стать инструментом усиления существующих предубеждений или, что еще хуже, тонкого манипулирования общественным мнением.
|
|
Эксперты говорят, что по мере того, как системы искусственного интеллекта, такие как LLMs, все больше интегрируются в современную жизнь, крайне важно решать этические проблемы, связанные с их использованием. Политики, разработчики и широкая общественность должны требовать большей прозрачности в том, как создаются эти модели, и следить за тем, чтобы они непреднамеренно не формировали предвзятый политический дискурс.
|
|
Одним из возможных решений является проведение регулярных аудитов и проверок, чтобы убедиться, что магистранты сохраняют политическую нейтральность или раскрывают любые присущие им предубеждения. Кроме того, усилия по диверсификации данных об обучении, используемых для построения этих моделей, могут помочь снизить риск предвзятости, обеспечивая представление более широкого спектра точек зрения.
|
|
В конечном счете, поскольку искусственный интеллект продолжает формировать наш образ жизни, работы и взаимодействия с окружающим миром, крайне важно, чтобы эти системы были разработаны с учетом принципов справедливости и прозрачности в их основе.
|
|
“Традиционно люди полагались на поисковые системы или платформы, такие как Википедия, для быстрого и надежного доступа к сочетанию фактической и предвзятой информации. Однако по мере того, как LLM становятся более продвинутыми и доступными, они начинают частично вытеснять эти традиционные источники”, - заключает доктор Розадо. “Этот сдвиг в источниках информации имеет глубокие социальные последствия, поскольку LLM могут формировать общественное мнение, влиять на поведение при голосовании и влиять на общий дискурс в обществе”.
|
|
- Поэтому крайне важно критически изучить и устранить потенциальные политические предубеждения, присущие LLM, чтобы обеспечить сбалансированное, справедливое и точное представление информации в их ответах на запросы пользователей”.
|
|
Источник
|