Неконтролируемый искусственный интеллект будет трудно остановить
|
Искусственный интеллект следует разрабатывать, соблюдая требования этики и меры безопасности, потому что вышедшие из-под контроля человека машины будет трудно остановить, считает знаменитый астрофизик Стивен Хокинг. |
В интервью легендарному журналисту Ларри Кингу, программа которого выходит на RT America, Хокинг признался, что не считает развитие искусственного интеллекта непременно ведущим к лучшему. "Когда машины достигнут критического этапа, на котором смогут эволюционировать самостоятельно, нельзя будет предугадать, насколько их цели будут совпадать с нашими", — сказал ученый. |
Хокинг добавил, что искусственный интеллект сможет развиваться быстрее, чем человеческий разум. |
"Полезный искусственный интеллект мог бы сосуществовать с людьми и увеличивать наши возможности. Но искусственный интеллект, вышедший из-под контроля, может оказаться трудно остановить. При разработке искусственного интеллекта необходимо обеспечить соблюдение требований этики и мер безопасности", — отметил Хокинг. |
http://ria.ru/science/20160628/1453699827.html |
При использовании материалов с сайта активная ссылка на него обязательна
|