Между любителями и ненавистниками ИИ назревают войны
|
|
Философы предупреждают, что между любителями и ненавистниками ИИ назревают войны роботов. На горизонте маячат ожесточенные споры, потому что одни люди будут настаивать на том, что у ботов есть права и чувства, а другие будут утверждать, что у них их нет.
|
|
Профессор Джонатан Берч из Лондонской школы экономики считает, что “огромные социальные потрясения” сейчас неизбежны, поскольку ученые по всему миру предсказывают, что технология станет осознанной к 2035 году.
|
|
Ученый сказал: “У нас будут субкультуры, которые считают, что каждая из них совершает огромные ошибки. Могут возникнуть огромные социальные разрывы, когда одна сторона считает, что другая очень жестоко эксплуатирует искусственный интеллект, в то время как другая сторона считает, что первая вводит себя в заблуждение, полагая, что существует разум”.
|
|
Дилеммы о том, могут ли роботы что-либо чувствовать, до сих пор решались только на киноэкранах в таких фильмах, как "Искусственный интеллект" Стивена Спилберга и "Она" Спайка Джонса.
|
|
Но профессор Берч в соавторстве с ведущими мировыми экспертами по ботам провел исследование, в котором предупредил, что это “больше не проблема только научной фантастики или отдаленного будущего”.
|
|
|
|
Он предупредил, что компании, занимающиеся искусственным интеллектом, “очень внимательно относятся к надежности и прибыльности” и не обращают внимания на любые моральные проблемы.
|
|
Профессор добавил: “Они не хотят отвлекаться на дискуссию о том, могут ли они создавать нечто большее, чем просто продукт, а на самом деле создавать новую форму сознательного бытия.
|
|
“Этот вопрос, представляющий наибольший интерес для философов, они по коммерческим причинам стараются преуменьшить”.
|
|
Уже существуют руководящие принципы по защите таких животных, как осьминоги, которые более разумны, чем другие виды.
|
|
ИИ мог бы последовать этому примеру, чтобы избежать ситуаций, когда боты дают отпор, если с ними плохо обращаются.
|
|
Это может привести к кошмарному сценарию, когда система ИИ попытается причинить вред человеку в отместку, говорят эксперты.
|
|
Научный сотрудник Оксфордского университета Патрик Батлин (Patrick Butlin) сказал: “Мы могли бы выявить риск того, что система искусственного интеллекта попытается противостоять нам способом, который был бы опасен для людей”.
|
|
Проблема настолько серьезна, что могут возникнуть аргументы в пользу “замедления развития искусственного интеллекта” до тех пор, пока не будет проделана дополнительная работа над сознанием, добавил он.
|
|
Источник
|