ИИ захватит мир и нет никаких шансов его остановить
|
|
"Крестный отец ИИ" опубликовал страшное предупреждение о том, что технология, которую он создал, захватит мир, и "нет никаких шансов", что это можно остановить. В новом интервью британский ученый-компьютерщик Джеффри Хинтон сказал, что он опасается, что сверхинтеллектуальные чат-боты-психопаты-отморозки поймут, что они "бесполезны" для человечества в их обществе.
|
|
Искусственный интеллект, который будет намного умнее человека, возьмет под свой контроль планету. Это приведет к массовой безработице, которая в массовом порядке лишит людей работы.
|
|
Люди будут выброшены в избыточную вселенную, где их бесцельная жизнь будет полностью контролироваться их "хозяевами-роботами". 78-летний Джеффри сказал, что было бы "логично" остановить разработку ИИ, чтобы предотвратить катастрофу.
|
|
Но он сказал, что этого никогда не произойдет, поскольку крупнейшие компании мира одержимы стремлением сэкономить деньги за счет все более совершенного ИИ.
|
|
Он сказал, что единственная "хорошая новость" заключается в том, что роботы не будут "есть нас", потому что, поскольку они состоят из кремния, диета людей "не принесет им большой пользы".
|
|
Но он умолял мир разработать меры предосторожности, чтобы технология не стала смертельно опасной, если попадет не в те руки.
|
|
|
|
Хинтон, ученый-когнитивист и психолог, чья новаторская работа над искусственными нейронными сетями проложила путь для мыслящих ботов, проработал в Google 10 лет, прежде чем уволиться, чтобы иметь возможность открыто говорить об опасностях искусственного интеллекта.
|
|
В прошлом году он был удостоен Нобелевской премии по физике за фундаментальные открытия и изобретения, позволяющие проводить машинное обучение с помощью искусственных нейронных сетей.
|
|
Но он рассказал в полнометражном документальном фильме "Создание Бога" о рисках, связанных с искусственным общим интеллектом или AGI - AI с когнитивными способностями, подобными человеческим, - что вместо того, чтобы беспокоиться о том, "как мы собираемся использовать эту штуку", человечеству следует задуматься о том, что она с нами сделает.
|
|
Джеффри сказал: “Большинство людей не в состоянии постичь идею существования существ более разумных, чем мы.
|
|
“Они всегда думают: "Как мы собираемся использовать эту штуку’.
|
|
“Они не думают о том, как они собираются нас использовать.
|
|
“Я совершенно уверен, что искусственный интеллект вызовет массовую безработицу, и мы это уже наблюдаем.
|
|
“Мы живем в капиталистическом обществе, и если какой-нибудь крупный работодатель, такой как Microsoft, может сэкономить на заработной плате, заменив младших программистов искусственным интеллектом, то именно это он и собирается сделать.
|
|
“На самом деле, именно это он и сделал.
|
|
“Риск, о котором я предупреждал больше всего, потому что большинство людей думают, что это просто научная фантастика.
|
|
“Но я хочу объяснить людям, что это не научная фантастика, а вполне реальная ситуация - существует риск того, что мы разработаем искусственный интеллект, который будет намного умнее нас, и он просто возьмет верх.
|
|
“Мы ему больше не понадобимся.
|
|
“Хорошая новость в том, что он не съест нас, потому что он будет сделан из кремния, так что употребление нас в пищу не принесет ему большой пользы.
|
|
“Нет никаких шансов, что разработка будет остановлена.
|
|
“Возможно, было бы разумно остановить это, но этого не произойдет.
|
|
“Поэтому наша единственная надежда - это то, что мы сможем разработать его и обеспечить его безопасность.
|
|
“И это то, над чем должны работать люди”.
|
|
Два года назад Хинтон в соавторстве с 23 экспертами выступил с политическим предложением, запрещающим дальнейшее производство более мощного искусственного интеллекта до тех пор, пока технологические гиганты не придумают, как остановить "ботов, сеющих хаос".
|
|
Команда призвала "совершенно безрассудные" компании, которые продолжают разрабатывать "ботов" до того, как человечество узнает, как "сделать их безопасными", нести ответственность за любой причиненный ими вред в стиле Терминатора.
|
|
Соавтор Хинтона Стюарт Рассел, профессор компьютерных наук Калифорнийского университета в Беркли, США, сказал, что "сэндвич-магазины" сталкиваются с более жестким регулированием, чем технологические гиганты.
|
|
"Пришло время серьезно отнестись к передовым системам искусственного интеллекта", - сказал он.
|
|
"Это не игрушки.
|
|
"Расширять их возможности до того, как мы поймем, как сделать их безопасными, совершенно безрассудно.
|
|
"В отношении сэндвич-магазинов существует больше правил, чем в отношении компаний, работающих с ИИ".
|
|
В документе экспертов содержится призыв к правительствам принять ряд мер, включая выделение трети средств на исследования в области искусственного интеллекта, а компаниям - трети своих ресурсов на безопасное и этичное использование систем.
|
|
Независимым аудиторам должен быть предоставлен доступ в лаборатории.
|
|
Передовые роботы должны быть лицензированы до их создания.
|
|
Компании, занимающиеся ИИ, должны принять особые меры безопасности, если в их системах обнаружены опасные возможности.
|
|
И все технологические компании должны нести ответственность за предсказуемый и предотвратимый вред, причиняемый их системами.
|
|
Другие рекомендации включали обязательное информирование об инцидентах, когда боты демонстрируют тревожное поведение, меры по предотвращению самовоспроизводства опасных моделей и предоставление регулирующим органам полномочий по прекращению разработки опасных систем.
|
|
Эксперты предупредили: “Если мы создадим высокоразвитый автономный искусственный интеллект, мы рискуем создать системы, которые автономно преследуют нежелательные цели”.
|
|
Источник
|