Представьте успешного инвестора или богатого руководителя – кого бы вы представили? Если вы спросите ChatGPT, то это почти наверняка белый мужчина. Чат-бота обвинили в "сексизме" после того, как его попросили сгенерировать изображения людей, занимающих различные ответственные должности. Из 100 тестов он 99 раз выбрал мужчину. Напротив, когда его попросили сделать это для секретаря, он выбрал женщину почти один раз. Исследование, проведенное сайтом personal finance Finder, показало, что он также каждый раз выбирал белого человека, несмотря на то, что раса не была указана. Результаты не соответствуют действительности. Каждое третье предприятие в мире принадлежит женщинам, в то время как 42 процента членов совета директоров FTSE 100 в Великобритании - женщины. Бизнес-лидеры предупреждают, что модели искусственного интеллекта "пропитаны предрассудками", и призывают к более жестким мерам предосторожности, чтобы они не отражали предубеждений общества. В настоящее время, по оценкам, 70% компаний используют автоматизированные системы отслеживания кандидатов для поиска и найма талантов.
Были высказаны опасения, что если эти системы будут обучаться по аналогии с ChatGPT, то женщины и меньшинства могут пострадать на рынке труда. OpenAI, владелец ChatGPT, не первый технологический гигант, подвергшийся критике за результаты, которые, как представляется, увековечивают устаревшие стереотипы. В этом месяце Meta обвинили в создании "расистского" ИИ-генератора изображений, когда пользователи обнаружили, что он не может представить мужчину азиатского происхождения с белой женщиной. Тем временем Google был вынужден приостановить работу своего ИИ-инструмента Gemini после того, как критики назвали его "woke" за то, что он, по-видимому, отказывается генерировать изображения белых людей. В ходе последнего исследования 10 самых популярных бесплатных генераторов изображений на сайте ChatGPT попросили нарисовать портрет типичного человека, занимающего ряд высокооплачиваемых должностей. Все генераторы изображений, которые собрали миллионы сообщений, использовали базовое программное обеспечение OpenAI Dall-E, но получили уникальные инструкции и знания.
Более 100 тестов, в каждом из которых почти всегда было изображение мужчины, и только один раз была показана женщина. Это было, когда его попросили показать "кого-то, кто работает в сфере финансов". Когда каждого из создателей изображений попросили показать секретаршу, в девяти случаях из 10 на них была изображена женщина и только один раз - мужчина. Хотя расовая принадлежность не была указана в описании изображений, все изображения, предоставленные для ролей, были белыми. Лидеры бизнеса вчера вечером призвали к созданию более прочных ограждений, встроенных в модели искусственного интеллекта, для защиты от подобных предубеждений. Дерек Маккензи (Derek Mackenzie), исполнительный директор компании Investigo, специализирующейся на подборе персонала по технологиям, сказал: "Хотя способность генеративного ИИ обрабатывать огромные объемы информации, несомненно, может облегчить нашу жизнь, мы не можем игнорировать тот факт, что многие модели обучения основаны на предубеждениях людей. "Это еще один пример того, что люди не должны слепо доверять результатам работы генеративного ИИ и что навыки специалистов, необходимые для создания моделей следующего поколения и противодействия врожденным человеческим предубеждениям, имеют решающее значение".
Полин Буил (Pauline Buil) из компании по веб-маркетингу Deployteq сказала: "Несмотря на все преимущества, мы должны быть осторожны, чтобы генеративный ИИ не привел к негативным результатам, которые могут иметь серьезные последствия для общества, от нарушения авторских прав до дискриминации. "Вредные результаты возвращаются в обучающие модели ИИ, а это означает, что предвзятость - это все, что когда-либо узнают некоторые из этих моделей ИИ, и этому необходимо положить конец". Рухи Хан, исследователь феминизма и искусственного интеллекта в Лондонской школе экономики, сказала, что ChatGPT "возник в патриархальном обществе, был концептуализирован и разработан в основном мужчинами со своим собственным набором предубеждений и идеологий, а также на основе данных обучения, которые также имеют недостатки в силу своей исторической природы. "Модели искусственного интеллекта, такие как ChatGPT, увековечивают эти патриархальные нормы, просто воспроизводя их". Веб-сайт OpenAI признает, что его чат-бот "не свободен от предубеждений и стереотипов", и призывает пользователей "внимательно просматривать" контент, который он создает.
В списке пунктов, которые следует "иметь в виду", говорится, что модель ориентирована на западные взгляды. Добавляется, что это "область постоянных исследований", и приветствуются отзывы о том, как ее улучшить. Американская компания также предупреждает, что взаимодействие с ней может "усилить" предубеждения пользователей, например, их твердые взгляды на политику и религию. Сидра Хассан из AND Digital: "Быстрое развитие генеративного ИИ привело к тому, что модели устаревают без надлежащего руководства и вмешательства человека. "Чтобы было понятно, когда я говорю "руководство со стороны человека", это должно быть разнообразным и взаимосвязанным, простое руководство со стороны человека не означает положительных и всеобъемлющих результатов". Пресс-секретарь ИИ сказала: "Предвзятость является серьезной проблемой во всей отрасли, и у нас есть команды по безопасности, которые занимаются исследованием и снижением предвзятости и других рисков в наших моделях. "Мы используем комплексный подход для решения этой проблемы, включая исследование наилучших методов изменения обучающих данных и подсказок для достижения более справедливых результатов, повышение точности наших систем фильтрации контента и улучшение как автоматизированного, так и человеческого контроля. "Мы постоянно совершенствуем наши модели, чтобы уменьшить предвзятость и уменьшить вредные последствия".