Проверка фактов с помощью ИИ может повысить доверие
|
Хотя многие технологические компании и стартапы рекламируют потенциал автоматизированных сервисов проверки фактов на базе искусственного интеллекта, способных остановить растущую волну онлайн-дезинформации, новое исследование, проведенное учеными из Университета Индианы, показало, что проверка фактов с помощью искусственного интеллекта в некоторых случаях может на самом деле повысить доверие к ложным заголовкам. достоверность, в которой ИИ не был уверен, а также снижение веры в правдивые заголовки, ошибочно помеченные как ложные. |
Работа также показала, что участники, которым была предоставлена возможность просматривать заголовки, проверенные с помощью искусственного интеллекта на базе большой языковой модели, с большей вероятностью делились как правдивыми, так и ложными новостями, но с большей вероятностью верили ложным заголовкам, а не истинным. |
Исследование "Проверка фактов из больших языковых моделей может снизить разборчивость заголовков" было опубликовано 4 декабря в журнале Proceedings of the National Academy of Sciences. Первый автор - Мэтью Деверна, аспирант Школы информатики, вычислительной техники и инжиниринга Университета Индианы в Блумингтоне. Старший автор - Филиппо Менцер, заслуженный профессор университета штата Индиана и директор обсерватории социальных сетей Университета штата Индиана. |
"Использование искусственного интеллекта вызывает большой интерес для расширения масштабов таких приложений, как проверка фактов, поскольку люди, занимающиеся проверкой фактов, не могут справиться с объемом ложных или вводящих в заблуждение заявлений, распространяющихся в социальных сетях, включая контент, созданный с помощью искусственного интеллекта", - сказал Деверна. - Однако наше исследование показывает, что, когда люди взаимодействуют с ИИ, могут возникнуть непредвиденные последствия, подчеркивая, насколько важно тщательно продумать, как эти инструменты используются". |
В ходе исследования ученые IU специально исследовали влияние информации для проверки фактов, генерируемой популярной моделью large language, на веру в заголовки политических новостей и на то, как они разделяют их намерения, в ходе предварительно зарегистрированного рандомизированного контрольного эксперимента. |
Хотя модель точно идентифицировала 90% ложных заголовков, исследователи обнаружили, что в среднем это существенно не улучшило способность участников различать истинные и ложные заголовки. |
Напротив, исследователи обнаружили, что использование проверки фактов, созданной человеком, улучшило распознавание пользователями правдивых заголовков. |
"Наши выводы указывают на важный источник потенциального вреда, исходящего от приложений искусственного интеллекта, и подчеркивают острую необходимость разработки политики для предотвращения или смягчения таких непреднамеренных последствий", - сказал Менцер. "Необходимы дополнительные исследования, чтобы повысить точность проверки фактов с помощью ИИ, а также лучше понять взаимодействие между людьми и ИИ". |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|