ИИ изменит характер исследований в области социальных наук
|
|
В статье, опубликованной 15 июня в журнале Science, ведущие исследователи из Университета Ватерлоо, Университета Торонто, Йельского университета и Университета Пенсильвании рассматривают, как ИИ (в частности, большие языковые модели или LLM) может изменить характер их работы. «В этой статье мы хотели исследовать, как можно адаптировать и даже заново изобрести методы исследований в области социальных наук, чтобы использовать возможности ИИ», — сказал Игорь Гроссманн, профессор психологии в Ватерлоо. Гроссманн и его коллеги отмечают, что большие языковые модели, обученные на огромных объемах текстовых данных, все чаще способны имитировать человеческие реакции и поведение. Это открывает новые возможности для проверки теорий и гипотез о человеческом поведении в больших масштабах и с большой скоростью.
|
|
Традиционно социальные науки полагаются на ряд методов, включая опросники, поведенческие тесты, наблюдательные исследования и эксперименты. Общей целью исследований в области социальных наук является получение обобщенного представления о характеристиках отдельных лиц, групп, культур и их динамике. С появлением передовых систем искусственного интеллекта ландшафт сбора данных в социальных науках может измениться. «Модели ИИ могут представлять широкий спектр человеческого опыта и точек зрения, что, возможно, дает им более высокую степень свободы для создания разнообразных ответов, чем обычные методы участия человека, что может помочь уменьшить проблемы обобщения в исследованиях», — сказал Гроссманн.
|
|
«LLM могут вытеснить людей для сбора данных», — сказал профессор психологии UPenn Филип Тетлок. «На самом деле, LLM уже продемонстрировали свою способность генерировать реалистичные ответы на опросы, касающиеся поведения потребителей. Большие языковые модели произведут революцию в прогнозировании, основанном на человеке, в ближайшие три года. серьезные политические дебаты. Я ставлю на это 90% шансов. Конечно, как люди реагируют на все это, это другой вопрос». Хотя мнения о возможности такого применения передовых систем искусственного интеллекта различаются, исследования с использованием симулированных участников могут быть использованы для создания новых гипотез, которые затем могут быть подтверждены в человеческих популяциях.
|
|
Но исследователи предупреждают о некоторых возможных ловушках в этом подходе, включая тот факт, что LLM часто обучают исключать социокультурные предубеждения, существующие для реальных людей. Это означает, что социологи, использующие ИИ таким образом, не могли изучать эти предубеждения. Профессор Дон Паркер, соавтор статьи из Университета Ватерлоо, отмечает, что исследователям необходимо будет разработать руководящие принципы управления LLM в исследованиях. «Прагматические опасения по поводу качества данных, справедливости и равенства доступа к мощным системам искусственного интеллекта будут существенными», — сказал Паркер. «Итак, мы должны гарантировать, что LLM социальных наук, как и все научные модели, имеют открытый исходный код, а это означает, что их алгоритмы и, в идеале, данные доступны всем для тщательного изучения, тестирования и изменения. Только поддерживая прозрачность и воспроизводимость, мы можем гарантировать, что Исследования в области социальных наук с помощью ИИ действительно способствуют нашему пониманию человеческого опыта».
|
|
Источник
|