Между любителями и ненавистниками ИИ назревают войны
|
Философы предупреждают, что между любителями и ненавистниками ИИ назревают войны роботов. На горизонте маячат ожесточенные споры, потому что одни люди будут настаивать на том, что у ботов есть права и чувства, а другие будут утверждать, что у них их нет. |
Профессор Джонатан Берч из Лондонской школы экономики считает, что “огромные социальные потрясения” сейчас неизбежны, поскольку ученые по всему миру предсказывают, что технология станет осознанной к 2035 году. |
Ученый сказал: “У нас будут субкультуры, которые считают, что каждая из них совершает огромные ошибки. Могут возникнуть огромные социальные разрывы, когда одна сторона считает, что другая очень жестоко эксплуатирует искусственный интеллект, в то время как другая сторона считает, что первая вводит себя в заблуждение, полагая, что существует разум”. |
Дилеммы о том, могут ли роботы что-либо чувствовать, до сих пор решались только на киноэкранах в таких фильмах, как "Искусственный интеллект" Стивена Спилберга и "Она" Спайка Джонса. |
Но профессор Берч в соавторстве с ведущими мировыми экспертами по ботам провел исследование, в котором предупредил, что это “больше не проблема только научной фантастики или отдаленного будущего”. |
Он предупредил, что компании, занимающиеся искусственным интеллектом, “очень внимательно относятся к надежности и прибыльности” и не обращают внимания на любые моральные проблемы. |
Профессор добавил: “Они не хотят отвлекаться на дискуссию о том, могут ли они создавать нечто большее, чем просто продукт, а на самом деле создавать новую форму сознательного бытия. |
“Этот вопрос, представляющий наибольший интерес для философов, они по коммерческим причинам стараются преуменьшить”. |
Уже существуют руководящие принципы по защите таких животных, как осьминоги, которые более разумны, чем другие виды. |
ИИ мог бы последовать этому примеру, чтобы избежать ситуаций, когда боты дают отпор, если с ними плохо обращаются. |
Это может привести к кошмарному сценарию, когда система ИИ попытается причинить вред человеку в отместку, говорят эксперты. |
Научный сотрудник Оксфордского университета Патрик Батлин (Patrick Butlin) сказал: “Мы могли бы выявить риск того, что система искусственного интеллекта попытается противостоять нам способом, который был бы опасен для людей”. |
Проблема настолько серьезна, что могут возникнуть аргументы в пользу “замедления развития искусственного интеллекта” до тех пор, пока не будет проделана дополнительная работа над сознанием, добавил он. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|