|
Через пять лет ИИ захватит власть
|
|
|
|
У мира "может не хватить времени", чтобы защитить человечество от систем искусственного интеллекта в стиле Терминатора, которые захватят мир, предупредил высокопоставленный специалист. Дэвид Далримпл, ведущий специалист правительственного агентства научных исследований, сказал, что люди должны быть обеспокоены растущими возможностями этой технологии.
|
|
|
|
По его словам, боты смогут выполнять "все функции, которые могут выполнять люди", "но лучше".
|
|
|
|
Человечество будет "побеждено" во всех областях, необходимых для "поддержания контроля над нашей цивилизацией, обществом и планетой’.
|
|
|
|
Далримпл, программный директор и эксперт по безопасности искусственного интеллекта в агентстве Aria, считает, что поглощение в стиле Терминатора произойдет в течение пяти лет.
|
|
|
|
Он сказал: “Я думаю, нам следует беспокоиться о системах, которые могут выполнять все функции, которые выполняют люди, чтобы делать что-то в мире лучше.
|
|
|
|
“Потому что мы окажемся вне конкуренции во всех областях, в которых нам необходимо доминировать, чтобы сохранить контроль над нашей цивилизацией, обществом и планетой”.
|
|
|
|
Далримпл сказал, что между государственным сектором и компаниями, занимающимися искусственным интеллектом, существует разрыв в понимании силы надвигающихся прорывов в этой технологии.
|
|
|
|
|
|
|
Он сказал: “Я бы посоветовал учесть, что события развиваются очень быстро, и у нас может не хватить времени, чтобы опередить их с точки зрения безопасности.
|
|
|
|
- И это не научная фантастика - предполагать, что в течение пяти лет большинство экономически значимых задач будут выполняться машинами с более высоким уровнем качества и меньшими затратами, чем людьми”.
|
|
|
|
Далримпл считает, что к концу года роботы смогут автоматизировать целый день исследований и разработок.
|
|
|
|
Это "приведет к дальнейшему расширению возможностей", поскольку технология сможет самосовершенствоваться.
|
|
|
|
Эксперт, который разрабатывает меры предосторожности для использования ИИ в критически важных инфраструктурах, таких как энергетические сети, сказал, что правительствам не следует считать, что все системы, созданные технологическими гигантами, безопасны.
|
|
|
|
“Мы не можем предполагать, что эти системы надежны”, - сказал он.
|
|
|
|
“Наука, позволяющая это сделать, вряд ли появится вовремя, учитывая экономическое давление.
|
|
|
|
“Итак, следующее лучшее, что мы можем сделать, и что мы, возможно, сможем сделать со временем, - это контролировать и смягчать недостатки”.
|
|
|
|
По его словам, если технический прогресс будет опережать безопасность, это приведет к "дестабилизации безопасности и экономики".
|
|
|
|
“Я работаю над тем, чтобы улучшить ситуацию, но это сопряжено с очень высоким риском, и человеческая цивилизация в целом находится на грани перехода”.
|
|
|
|
В этом месяце правительственный институт безопасности искусственного интеллекта (AISI) сообщил, что возможности передовых моделей искусственного интеллекта "быстро улучшаются" во всех областях, а производительность в некоторых областях удваивается каждые восемь месяцев.
|
|
|
|
Ведущие модели могут выполнять задания уровня ученика в 50% случаев - по сравнению с 10% в прошлом году.
|
|
|
|
AISI также обнаружила, что большинство современных систем могут самостоятельно выполнять задачи, на которые специалисту потребовалось бы более часа.
|
|
|
|
Институт также протестировал саморепликацию - ключевую проблему безопасности, поскольку при этом система распространяет свои копии на другие устройства, и контролировать ее становится все труднее.
|
|
|
|
Тесты показали, что две ведущие модели достигли успеха более чем на 60%.
|
|
|
|
Источник
|