Будет трагедия, если искусственный сверхинтеллект никогда не появится
|
Известный философ Ник Бостром считает, что будет «большая трагедия», если искусственный интеллект человеческого уровня никогда не будет разработан, хотя раньше этот человек предупреждал больше о катастрофических рисках для человечества, которыми грозит появление такой технологии. |
Бостром, возглавляющий Институт будущего человечества при Оксфордском университете, привлек всемирное внимание в прошлом году, представив свою плодотворную работу «Сверхинтеллект: пути, опасности, стратегии». После этой публикации Стивен Хокинг, Билл Гейтс и Элон Маск выразили свою обеспокоенность проблемами, поднятыми в книге. |
По мнению Маска, продвинутый ИИ может быть «опаснее ядерного оружия», а Хокинг не мелочась сообщил, что его появление приведет к концу человеческой эпохи. |
В разговоре с IBTimes UK во время недавней конференции Silicon Valley Comes To Oxford, Бостром сообщил, что хотя угроза безусловно присутствует, он приветствует развитие сферы ИИ и надеется, что искусственный сверхинтеллект появится. |
«Я думаю, что путь в самое лучшее будущее из возможных будет пролегать через создание машинного интеллекта в определенной точке, — говорит Бостром. — Я думаю, будет большая трагедия, если он никогда не будет разработан». |
«Думаю, что, хотя было бы желательно приложить некоторые усилия по решению вопроса управления этой проблемой, определение начальных условий взрыва сверхинтеллекта будет наилучшим из возможных путей по повышению шансов на сохранение будущего в соответствии с общечеловеческими ценностями». |
Для определения начальных условий Бостром предлагает выяснить желаемую последовательность технологического развития развивающихся областей вроде нанотехнологий и передовой синтетической биологии. |
«Мы хотим решить проблемы с безопасностью еще до того, как кто-нибудь решит проблему самого ИИ», — говорит Бостром. |
Последовательность, с которой разрабатываются различные технологии вроде этих, скорее всего, повлияет на общий риск траектории развития искусственного интеллекта. Бостром считает, что дальнейший прогресс должен быть сосредоточен на «проблемах контроля» путем увеличения инвестиций в талант и исследования. |
Когда именно будет создан ИИ человеческого уровня, пока непонятно, хотя теоретики ИИ определяют сроки в 30-100 лет с нынешнего момента. Также непонятно, будет ли развитие передовых форм ИИ полезно для общества в целом или выгоду получат только отдельные лица и корпорации, контролирующие технологию. |
В краткосрочной перспективе, Бостром говорит, что технологии ИИ вроде самоуправляемых автомобилей помогут обществу, повысив эффективность и безопасность. Его опасения сконцентрированы на более удаленных точках в будущем, когда машины перестанут быть просто инструментами и начнут подменять людей в широком спектре задач — а также смогут планировать и составлять стратегии на уровне с людьми. |
Тем не менее, несмотря на мрачные возможности, которые открывает Бостром и его книга, философ не считает себя прорицателем конца света. |
«Я пытаюсь узнать больше о том, на что будет похож ланшдафт будущих перспектив человечества, узнать, где будут коварные течения и как их можно будет обогнуть, — говорит Бостром. — Так что я больше заинтересован в выяснении того, что мы можем сделать сейчас, чтобы оказать наибольшее положительное влияние на наше будущее в долгосрочной перспективе. Мне больше интересно это, нежели определять абсолютный уровень риска или надеяться, что нам повезет в будущем. Я не настроен оптимистично или пессимистично — я откалибровал себя как только смог, чтобы опираться только на факты». |
http://hi-news.ru/technology/nik-bostrom-budet-tragediya-esli-iskusstvennyj-sverxintellekt-nikogda-ne-poyavitsya.html |
При использовании материалов с сайта активная ссылка на него обязательна
|