Что если появится феминистский ИИ
|
Под горячо обсуждаемым воздействием генеративного искусственного интеллекта (ИИ) скрывается более глубокая проблема предвзятости данных, обучающих ИИ. Возможно, сейчас больше, чем когда-либо, когда число людей и организаций, обращающихся к таким инструментам, как ChatGPT, для написания своих эссе, юридических заключений или принятия важных решений, растет, и проблема алгоритмической предвзятости и несправедливости, встроенных в системы ИИ, становится актуальной. В то время как расовая и гендерная дискриминация часто упоминается среди вреда, вызванного предвзятостью в ИИ, более широкие и взаимосвязанные области воздействия включают потерю работы, нарушение конфиденциальности, дискриминацию в сфере здравоохранения, политическую поляризацию и распространение дезинформации. |
«ИИ — это преимущественно белая и мужская сфера, — говорит доктор Карла Фер из Ватерлоо, — и существует острая необходимость в работе над расовыми, гендерными, инвалидными и социальными проблемами, связанными с ИИ». Фер является адъюнкт-профессором философии и заведует кафедрой научно-технической грамотности Вольфа. В 2021 году она созвала семинар по феминизму, социальной справедливости и искусственному интеллекту, на который пригласила ученых из ее собственной области феминистской философии для сотрудничества с другими экспертами, включая ученых-компьютерщиков, инженеров, экономистов, политиков и отраслевых экспертов. Их задача состояла в том, чтобы изучить способы содействия ответственной разработке и использованию ИИ. |
«У нас такой впечатляющий прогресс с точки зрения технологического роста. И в области социальной теории и этики, связанных с ИИ, проводится много действительно интересной работы. друг друга», — говорит Фер. Разработка алгоритмических систем, основанных на справедливости, — непростая задача. Но, как и в других областях несправедливости, она начинается с определения и понимания того, как вред наносится в рамках существующей системы. Много лет назад, когда она начала изучать социальные последствия ИИ и читать такие книги, как «Алгоритмическое угнетение» Сафии Ноубл и «Оружие математического разрушения» Кэти О’Нил, Фер была поражена тем, насколько мощными и опасными могут быть алгоритмы машинного обучения. Она приводит пример моделей ИИ, используемых для прогнозирования рецидивизма — вероятности того, что бывшие правонарушители совершат повторное преступление. «Уровень рецидивизма значительно завышен для чернокожих и недооценен для белых. Эти модели ИИ не только отражали действительно вредные социальные модели, существующие прямо сейчас, но и укрепляли и развивали их». |
Конечно, искусственный интеллект и машинное обучение тоже приносят пользу. «Некоторые из этих алгоритмов обещают невероятный вклад в благополучие человечества», — пишет Фер в предисловии к выпуску журнала Feminist Philosophy Quarterly, посвященному феминизму, социальной справедливости и семинарам по искусственному интеллекту. «Например, некоторые системы на основе ИИ могут выявлять очень ранние стадии заболеваний, а другие разрабатываются и используются для борьбы с торговлей людьми. #Я тоже." Содействие разнообразию в областях STEM — важная область исследований Фера, которая пересекается со справедливостью в области ИИ. Проще говоря, разнообразие и справедливость ведут к улучшению науки, утверждает она. И в основе предвзятого технологического проектирования лежит отсутствие разнообразия среди его разработчиков. |
Она приводит в пример Джой Буоламвини, темнокожего исследователя из Массачусетского технологического института, которая заметила, что программное обеспечение для распознавания лиц плохо справляется с обнаружением и часто искажает пол лиц чернокожих или темнокожих женщин, поэтому она стала пионером критической работы по устранению предвзятости, встроенной в эту технологию. Фер подчеркивает, что «люди должны понимать, что расизм — это не просто отдельные люди с плохим отношением, а то, что расизм встроен во многие наши системы и институты. Поэтому улучшение образования и равноправие в сфере занятости играют центральную роль в решении этих технических проблем и обеспечении вещи лучше». Фер входит в состав растущей группы междисциплинарных исследователей в Ватерлоо, выступающих за ответственное развитие науки и технологий, включая такие инициативы, как «Технологии во благо» и «Этично по замыслу». На факультете искусств этой работой занимаются ученые в области коммуникативных искусств, английского языка, философии, социологии, Стратфордской школы и других. Но как выглядят феминистские подходы к переписыванию алгоритмов? Что нужно для создания феминистского ИИ? «Это так здорово», — говорит Фер. |
В совокупности участники семинара «Феминизм, социальная справедливость и искусственный интеллект» продемонстрировали, что существуют важные возможности для феминистских исследований в области разработки новых алгоритмических систем. Например, в их документах предлагались такие шаги, как: определение конкретных барьеров для алгоритмов устранения предвзятости; оценка алгоритмов на предмет их роли в расовой стратификации; подталкивание технологических компаний к найму людей с жизненным опытом для курирования автозаполнения ответов на расовые запросы; и исследование влияния культурного переключения кода на новые технологии искусственного интеллекта. Фер отметил, что во многих статьях, написанных для семинара, фигурировал определенный философ. «Айрис Мэрион Янг работала над структурной несправедливостью и разработала идею о том, что ответственность за несправедливость распределяется между всеми людьми, которые в ней участвуют. И я думаю, что для понимания и устранения алгоритмической предвзятости и несправедливости в ИИ это действительно полезное понятие». |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|