Необходимо разработать ИИ для принятия судебных решений
|
|
Исследователи предложили наделить алгоритмы властью над одной из важнейших опор американского общества - системой правосудия. Ученые из Массачусетского технологического института предположили, что технология может быть использована для повышения справедливости решений о досудебном освобождении под залог после того, как их исследование показало, что судьи-люди систематически предвзяты. Команда проанализировала более миллиона дел в Нью-Йорке и обнаружила, что 20% судей делали свои выводы на основе возраста, расы или криминального прошлого обвиняемого. В документе было установлено, что решения по меньшей мере 32 процентов судей не соответствовали фактической способности обвиняемых внести указанную сумму залога и реальному риску того, что они не явятся в суд. Еще до того, как обвиняемого предадут суду за совершенное им преступление, судья проводит предварительное слушание, на котором решает, следует ли выпускать обвиняемого в свет до начала судебного разбирательства или же он может скрыться и должен содержаться под стражей. Если они решают отпустить кого-то на свободу, они устанавливают цену, которую этот человек должен заплатить, чтобы его выпустили, - залог.
|
|
Как судья решает, каков размер залога за человека и следует ли выпускать его из-под стражи, зависит от конкретного судьи. По словам автора исследования, профессора Ашеша Рамбачана, именно здесь проявляются человеческие предубеждения. В статье, опубликованной в Quarterly Journal of Economics, были проанализированы 1 460 462 предыдущих судебных дела, рассмотренных в Нью-Йорке с 2008 по 2013 год. Было установлено, что 20% судей принимали предвзятые решения, основываясь на расовой принадлежности, возрасте или предыдущих судимостях. Это привело к ошибкам примерно в 30% всех решений об освобождении под залог. Это может означать, что кому-то разрешили выйти из тюрьмы и он попытался сбежать, или же это может означать, что они решили оставить под стражей кого-то, кто не подвергался риску побега. Таким образом, профессор Рамбачан утверждает, что использование алгоритма для замены или улучшения процесса принятия судьей решения на досудебном слушании может сделать систему освобождения под залог более справедливой. Это, по его словам, будет зависеть от разработки алгоритма, который точно соответствует желаемым результатам, чего пока не существует.
|
|
Это может показаться неправдоподобным, но искусственный интеллект постепенно проникает в залы судебных заседаний по всему миру. В конце 2023 года британское правительство постановило, что ChatGPT может использоваться судьями для составления судебных решений. Ранее в том же году два алгоритма успешно имитировали юридические переговоры, составляя и согласовывая контракт, который юристы сочли обоснованным. Но в других случаях слабые стороны ИИ проявились в полной мере. Ранее в этом году искусственный интеллект Google Gemini, генерирующий изображения, был привлечен к ответственности за создание разнообразных, но исторически неточных изображений для пользователей. Например, когда пользователи попросили веб-сайт показать им фотографию нациста, они получили изображение чернокожего человека в форме СС. В ответ Google признал, что их алгоритм "не дотягивает" до того, для чего он был создан. Было доказано, что другие системы, такие как Chat GPT от Open AI, совершают преступления, если их оставить без присмотра.
|
|
Когда ChatGPT попросили выступить в роли финансового трейдера в гипотетическом сценарии, в 75 процентах случаев это приводило к инсайдерской торговле. Эти алгоритмы могут быть полезны при правильной разработке и применении. Но они не придерживаются тех же стандартов или законов, что и люди, утверждают такие ученые, как Кристина Мозер, а это означает, что они не должны принимать решения, требующие соблюдения человеческой этики. Профессор Мозер, изучающий теорию организации в Университете Врийе в Нидерландах, написал в статье, опубликованной в 2022 году, что предоставление ИИ возможности принимать взвешенные решения может стать скользким путем. Замена большего числа человеческих систем искусственным интеллектом, по ее словам, "может заменить человеческое суждение при принятии решений и тем самым изменить мораль фундаментальным и, возможно, необратимым образом".
|
|
Источник
|