Может ли ИИ сыграть роль в системе правосудия
|
|
Быстрое развитие искусственного интеллекта (ИИ) привело к его развертыванию в залах судебных заседаний за рубежом. В Китае роботы-судьи выносят решения по делам о мелких исках, а в некоторых судах Малайзии ИИ используется для вынесения приговоров за такие правонарушения, как хранение наркотиков. Не пора ли Новой Зеландии включить ИИ в свою судебную систему? Интуитивно мы не хотим, чтобы нас судил компьютер. И есть веские причины для нашего нежелания — с обоснованными опасениями по поводу возможной предвзятости и дискриминации. Но значит ли это, что мы должны бояться любого использования ИИ в судах? В нашей нынешней системе судья выносит приговор подсудимому, как только он признается виновным. Общество доверяет судьям выносить справедливые приговоры на основе их знаний и опыта.
|
|
Но вынесение приговора — это задача, которую ИИ может выполнять вместо этого — в конце концов, машины ИИ уже используются для предсказания некоторых преступных действий, таких как финансовое мошенничество. Прежде чем рассматривать роль ИИ в зале суда, нам нужно четко понять, что это такое на самом деле. ИИ просто относится к машине, которая ведет себя так, как люди называют ее «разумной». Самый современный ИИ — это машинное обучение, когда компьютерный алгоритм изучает закономерности в наборе данных. Например, алгоритм машинного обучения может изучать шаблоны в базе данных домов на Trade Me, чтобы прогнозировать цены на жилье. Итак, может ли вынесение приговора в отношении ИИ быть приемлемым вариантом в судах Новой Зеландии? Как это может выглядеть? Или может ИИ хотя бы помочь судьям в процессе вынесения приговора?
|
|
Непоследовательность в судах
|
|
В Новой Зеландии судьи должны взвесить ряд смягчающих и отягчающих обстоятельств, прежде чем выносить приговор осужденному преступнику. Каждый судья использует свое усмотрение в решении исхода дела. В то же время судьи должны стремиться к согласованности всей судебной системы. Последовательность означает, что за аналогичные правонарушения должны назначаться одинаковые наказания в разных судах с разными судьями. Для повышения согласованности суды более высокого уровня подготовили руководящие решения, на которые судьи ссылаются при вынесении приговора.
|
|
Но благоразумие работает наоборот. В нашей нынешней системе судьи должны быть свободны в вынесении индивидуального приговора после полной оценки дела. Судьи должны учитывать индивидуальные обстоятельства, социальные нормы, состояние человека и чувство справедливости. Они могут использовать свой опыт и чувство человечности, принимать моральные решения и даже иногда изменять закон. Короче говоря, существует «желаемое несоответствие», которого мы в настоящее время не можем ожидать от компьютера. Но могут быть и некоторые «нежелательные несоответствия», такие как предвзятость или даже посторонние факторы, такие как голод. Исследования показали, что в некоторых израильских судах процент благоприятных решений падает почти до нуля перед обедом.
|
|
Потенциальная роль ИИ
|
|
Именно здесь ИИ может сыграть роль в вынесении приговора. Мы создали алгоритм машинного обучения и обучили его на 302 случаях нападения в Новой Зеландии с приговорами от нуля до 14,5 лет лишения свободы. На основе этих данных алгоритм построил модель, которая может взять новый случай и предсказать длину приговора. Прелесть используемого нами алгоритма в том, что модель может объяснить, почему она сделала определенные прогнозы. Наш алгоритм количественно определяет фразы, которые модель больше всего учитывает при расчете предложения. Чтобы оценить нашу модель, мы снабдили ее 50 новыми сценариями вынесения приговоров, которых она никогда раньше не видела. Затем мы сравнили предсказанную моделью длину предложения с реальными предложениями. Относительно простая модель работала довольно хорошо. Он предсказал предложения со средней ошибкой чуть менее 12 месяцев.
|
|
Модель узнала, что такие слова или фразы, как «сексуальный», «молодой человек», «такси» и «огнестрельное оружие», коррелируют с более длинными предложениями, а такие слова, как «профессионал», «карьера», «пожар» и «Facebook» коррелируют друг с другом. с более короткими предложениями. Многие фразы легко объяснимы — «сексуальное насилие» или «огнестрельное оружие» могут быть связаны с нападением при отягчающих обстоятельствах. Но почему «молодой человек» склоняется к большему сроку тюремного заключения, а «Фейсбук» — к меньшему? И как средняя ошибка в 12 месяцев соотносится с вариациями человеческих судей? Ответы на эти вопросы являются возможными направлениями будущих исследований. Но это полезный инструмент, помогающий нам лучше понять вынесение приговоров.
|
|
Будущее ИИ в залах суда
|
|
Ясно, что мы не можем проверить нашу модель, применяя ее в зале суда для вынесения приговоров. Но это дает нам представление о нашем процессе вынесения приговора. Судьи могут использовать этот тип моделирования, чтобы понять свои решения о вынесении приговора и, возможно, исключить посторонние факторы. Модели ИИ также могут использоваться юристами, поставщиками юридических технологий и исследователями для анализа системы вынесения приговоров и правосудия. Возможно, модель ИИ могла бы также помочь создать некоторую прозрачность в отношении спорных решений, например, показать общественности, что кажущиеся спорными приговоры, такие как домашний арест насильника, не могут быть особенно необычными. Большинство считает, что окончательные оценки и решения о правосудии и наказании должны приниматься экспертами-людьми. Но урок нашего эксперимента состоит в том, что нам не следует бояться слов «алгоритм» или «ИИ» в контексте нашей судебной системы. Вместо этого мы должны обсуждать реальные (а не воображаемые) последствия использования этих инструментов для общего блага.
|
|
Источник
|