Когда искусственный интеллект научится рассуждать
|
С каждым днем самые продвинутые системы искусственного интеллекта становятся все умнее и умнее, получая новые знания и умения. ИИ уже сейчас способен во многих сферах быть лучше людей. Но за всем этим «превосходством» скрываются лишь строчки кода и четко выверенные алгоритмы, которые не позволяют программе быть «свободной в своих мыслях». Иными словами, машина не может делать то, что в нее не заложено. ИИ может приходить к логическим выводам, но не умеет рассуждать на заданную тему. И похоже, что скоро это изменится. |
Мы, как и все разумные организмы, узнаем об устройстве окружающего мира постепенно. Представьте, что годовалый младенец увидит, как игрушечный грузовик съезжает с платформы и повисает в воздухе. Для него в этом не будет ничего необычного. Но проделайте тот же эксперимент всего два-три месяца спустя, и маленький человек тут же поймет, что что-то не так. Ведь он уже знает, как работает гравитация. |
«Никто не говорит ребенку, что объекты должны падать», — говорит Ян Лекун, глава Facebook в направлении разработки искусственного интеллекта и профессор Нью-Йоркского университета. — «Многое из того, что дети узнают о мире, они узнают через наблюдение». И, как бы просто это не звучало, именно такой подход может помочь разработчикам ИИ создавать более продвинутые версии искусственного разума. |
Глубокое машинное обучение (то есть, грубо говоря, получение определенных навыков методом проб и ошибок) сегодня позволяет ИИ добиться огромных успехов. Но самое главное искусственный интеллект сделать до сих пор не способен. Он не может рассуждать и делать выводы на основе анализа объективной реальности, в которой он существует. Другими словами, машины по-настоящему не понимают окружающий мир, что делает их неспособными взаимодействовать с ним. |
Одним из способов совершенствования ИИ может стать своего рода «общая память», которая будет помогать машинам получать информацию о мире вокруг и постепенно изучать его. Но это не решает всех проблем. «Очевидно, мы что-то упускаем», — говорит профессор Лекун. — «Ребенок может развить понимание того, как выглядят взрослые слоны и их детеныши после того, как увидит всего 2 фотографии. В то время как алгоритмы глубокого обучения должны просмотреть тысячи, если не миллионы изображений. Подросток может научиться безопасно водить машину, практикуясь пару десятков часов и понять, как избежать аварий, а вот роботы должны накатать десятки миллионов часов». |
Ответ, по мнению профессора Лекуна, заключается в недооцененной подкатегории глубокого обучения, известной как неконтролируемое обучение. Когда алгоритмы, основанные на контролируемом и усиленном обучении, учат ИИ достигать цели через ввод данных извне, неконтролируемые разрабатывают шаблоны поведения самостоятельно. Проще говоря, есть 2 способа научить робота ходить: первый — ввести в систему все параметры, основанные на строении робота. Второй — «объяснить» принципы того, что такое ходьба, и заставить робота учиться самостоятельно. При этом подавляющее большинство существующих алгоритмов работают именно по первому пути. Ян Лекун считает, что акцент должен быть смещен в сторону второго способа. |
«Исследователи должны начать с обучения алгоритмов прогнозированию. Например, научить нейронные сети предсказывать вторую половину видео, посмотрев лишь первую. Да, в этом случае неизбежны ошибки, но таким образом мы учим ИИ рассуждению, расширяя возможности его применения. Возвращаясь к примеру с ребенком и игрушечным грузовиком: у нас есть 2 возможных исхода — грузовик упадет или зависнет. «Подкиньте» нейросетям еще сотню другую таких примеров и они научаться строить логические взаимосвязи и в конечном итоге научаться рассуждать». |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|