ИИ может уничтожить человечество
|
Во время интервью для издания The Times Стюарт Рассел, профессор компьютерных наук из Калифорнийского университета в Беркли, рассказал про риски, связанные с развитием искусственного интеллекта (ИИ). Стюарт Рассел считает, что один из рисков связан с тем, что перед сильным ИИ ставят цель, а он самостоятельно выбирает метод ее достижения, который может быть связан с непредвиденными побочными эффектами, гибельными для человечества. Ученый привел в качестве примера случай, в котором перед ИИ стоит задача остановить или замедлить изменение климата, и ИИ решает, что лучший способ — избавить Землю от людей. |
Ученый также сравнил появление сверхмощного ИИ со вторжением более развитой инопланетной цивилизации. Раньше профессор считал, что подобные системы появятся лишь через десятки лет, но теперь, глядя на Chat GPT, он сократил свой прогноз до ближайшего десятилетия. Рассел выразил обеспокоенность тем, что политики выступают за слабое регулирование сферы искусственного интеллекта, несмотря на то, что многие эксперты видят потенциальную угрозу этой технологии. Недавно он вместе с Илоном Маском и Стивом Возняком подписал открытое письмо с предложением остановить развитие ИИ, чтобы научиться сначала его контролировать. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|