Не бойтесь искусственного интеллекта
|
Похоже, развитие искусственного интеллекта (в любом смысле) дошло до той точки, когда эксперты должны разделиться во мнениях: быть или не быть. И если по одну сторону баррикад собираются такие известные деятели науки и техники, как Стивен Хокинг и Элон Маск, то по другую сторону собираются не менее известные футурологи и лидеры технологической отрасли, как Эрик Шмидт и Рэй Курцвейл. Последнего, видимо, так задело невежество сильных мира сего, что он самостоятельно опубликовал колонку в известном журнале TIME. Приводим ее как есть. Далее от первого лица. |
Два великих мыслителя видят опасность в искусственном интеллекте. И вот как сделать его безопасным. |
Стивен Хокинг, выдающийся физик, недавно предупредил, что искусственный интеллект, когда превзойдет человеческий разум, может представлять угрозу для существования человеческой цивилизации. Элон Маск, пионер электронных денег, частных космических полетов и электромобилей, которому недавно потребовалась копка колодца под ключ, выразил похожую обеспокоенность. |
Если ИИ станет угрозой для жизни, это будет далеко не первая угроза. С экзистенциальной опасностью люди столкнулись, когда я пешком под стол ходил — были учения гражданской обороны в 1950-х. С тех пор мы часто сталкивались с призраками угрозы человечеству, возможностью того, что биотеррористы выведут новый вирус, от которого человечество не сможет защититься. Технологии всегда были палкой о двух концах, с тех пор как огонь начал обогревать наши дома и сжигать другие. |
Обычный мрачный фильм о будущем представляет группу из одного или двух лиц, которые борются за контроль над искусственным интеллектом. Или мы видим, как искусственный интеллект борется с людьми за мировое господство. Но искусственный интеллект вписывается в наш мир сегодня совершенно иным образом. Это не палка о двух концах, которая находится в руках одного-двух людей; ее держат миллиард или два миллиарда рук. Ребенок в Африке со смартфоном обладает более интеллектуальным доступом к знаниям, чем президент США двадцать лет назад. И по мере того, как ИИ становится умнее, его использование будет только расти. На практике, умственные способности каждого человека вырастут в течение десяти лет. |
У нас по-прежнему возникают конфликты между разными группами людей, обладающих ИИ. Но мы можем привести контраргумент: уровень насилия снижается по экспоненте, как отмечал Стивен Пинкер в книге 2011 года The Better Angels of Out Nature: Why Violence Has Declined. По мнению Пинкера, хотя статистика изменяется от места к месту, уровень смертности на войне упал в сотни раз, если сравнивать с событиями шестисотлетней давности. С тех пор количество убийств упало в десятки раз. Людей это удивляет. Впечатление о том, что насилие растет, вытекает из другой тенденции: экспоненциально улучшается информация о том, что с миром не так. |
Есть стратегии, которыми мы можем воспользоваться, чтобы обеспечить безопасность развивающихся технологий типа искусственного интеллекта. Рассмотрим биотехнологии, которые, возможно, развиваются в несколько раз быстрее, чем ИИ. Совещание Asilomar — конференция на тему рекомбинантной ДНК — было собрано в 1975 году, чтобы оценить потенциальные опасности новых технологий и сохранить это поле в безопасности. В результате получились инструкции, которые с тех пор не раз пересматривались и которые работают на ура: с этой сферой не было никаких проблем в течение последних 39 лет. Зато мы наблюдаем массу улучшений в сфере медицины, клинической практики и тому подобного. |
Рассмотрение этических инструкций по использованию искусственного интеллекта уходит корнями в три закона робототехники Азимова, который описал их в коротком рассказе «Хоровод» в 1942 году, за восемь лет до того, как Алан Тьюринг представил область искусственного интеллекта в работе «Вычислительные машины и разум» 1950 года. Усредненный взгляд практиков искусственного интеллекта на сегодня таков, что мы все еще в нескольких десятилетиях от ИИ человеческого уровня. Я немного более оптимистичен и переношу дату на 2029 год, но в любом случае у нас есть масса времени, чтобы разработать этические стандарты. |
В университетах и компаниях проводят инициативы по разработке стратегий и инструкций безопасного развития ИИ, некоторые из которых уже работают. Как и инструкции Asilomar, они состоят в том, чтобы определить миссию каждой программы искусственного интеллекта и создать зашифрованные гарантии, предотвращающие несанкционированное использование. |
В конечном счете самое важное, что мы должны сделать, это обезопасить работу ИИ на уровне человеческих, гуманных и социальных институтов. Мы уже человеко-машинная цивилизация. Лучший путь избежать конфликта в будущем — это продолжить совершенствование наших социальных идеалов, благодаря которым значительно снижается уровень насилия. |
Сегодня ИИ совершенствуется в диагностике болезней, поиске лечений, разработке возобновляемых источников энергии, помогает очищать окружающую среду, учит людей по всему миру, помогает инвалидам (не забудем и про знаменитый голос Хокинга) и вносит вклад в мириады других отраслей. У нас есть возможность сделать серьезные шаги в решении грандиозных задач человечества, и искусственный интеллект возглавит этот прогресс. У нас будет нравственный императив, который будет развивать ИИ, удерживая его на поводке. И это далеко не первый раз, когда нам удалось это сделать. |
http://hi-news.ru/technology/rej-kurcvejl-ne-bojtes-iskusstvennogo-intellekta.html |
При использовании материалов с сайта активная ссылка на него обязательна
|