Для начала надо решить этические проблемы ChatGPT
|
|
В новой статье исследователей из Школы социальной политики и практики Пенна (SP2) и Анненбергской школы коммуникации Пенна предлагаются рекомендации по обеспечению этичного использования ресурсов искусственного интеллекта, таких как ChatGPT, учеными, работающими в социальной сфере. Статья, опубликованная в Журнале Общества социальной работы и исследований, была написана в соавторстве с доктором Десмондом Аптоном Паттоном, доктором Авивом Ландау и доктором Шивой Матияжаган. Паттон, пионер междисциплинарного слияния социальной работы, коммуникаций и науки о данных, занимает совместные должности в Анненберге и SP2 в качестве профессора Университета Брайана и Рэнди Шварц. Описывая проблемы, которые ChatGPT и другие большие языковые модели (LLM) создают в отношении предвзятости, законности, этики, конфиденциальности данных, конфиденциальности, информированного согласия и академических проступков, в статье представлены рекомендации в пяти областях этического использования технологии:
|
|
- Прозрачность: Академический текст должен раскрывать, как и кем создается контент.
|
- Проверка фактов. Академический текст должен проверять информацию и цитировать источники.
|
- Авторство: Ученые-социологи должны сохранять авторство при использовании инструментов ИИ для поддержки своей работы.
|
- Антиплагиат: необходимо найти и процитировать владельцев идей и авторов контента.
|
- Инклюзивность и социальная справедливость: необходимо разработать антирасистские рамки и подходы для противодействия потенциальным предубеждениям LMM в отношении чернокожих, коренных или цветных авторов, а также авторов из глобального Юга.
|
|
Особое беспокойство у авторов вызывают ограничения искусственного интеллекта в контексте прав человека и социальной справедливости. «Подобно бюрократической системе, ChatGPT навязывает мысли без сострадания, разума, предположений или воображения», — пишут авторы. Указывая на последствия модели, обученной на существующем содержании, они заявляют: «Это может привести к предвзятости, особенно если текст, используемый для ее обучения, не представляет различные точки зрения или исследования недостаточно представленных групп… Кроме того, модель генерирует текст, предсказывая следующее слово на основе предыдущих слов. Таким образом, это может усилить и увековечить существующую предвзятость, основанную на расе, поле, сексуальности, способностях, касте и других идентичностях». Отмечая потенциал ChatGPT для помощи в исследованиях, генерации тем, редактировании данных и разработке презентаций, авторы описывают чат-бот как «наиболее подходящий для использования в качестве вспомогательного технического инструмента для ученых, работающих в социальной сфере».
|
|
Источник
|