Могут ли машины иметь сознание
|
|
Как бы режиссеру ни хотелось заставить вас в это верить, главным героем фильма «Из машины» 2015 года, снятого Эндрю Гарландом, является не Калеб — молодой программист, которому поручили оценивать машинное сознание. Нет, главным героем стала Ава, поразительный гуманоидный ИИ, наивный на вид и загадочный внутри. Как и большинство фильмов подобного рода, «Из машины» оставляет зрителю самому ответить на вопрос: действительно ли Ава была сознательной? При этом фильм умело избегает тернистого вопроса, на который пытались ответить громкие фильмы на тему ИИ: что такое сознание и может ли оно быть у компьютера?
|
|
Голливудские продюсеры не единственные пытаются ответить на этот вопрос. Поскольку машинный интеллект развивается с головокружительной скоростью — не только превосходя возможности людей в таких играх, как DOTA 2 и го, но и делая это без помощи человека — этот вопрос снова поднимается в широких и узких кругах.
|
 |
|
На этой неделе в престижном журнале Scienceбыл опубликован обзор, сделанный когнитивными учеными, докторами Станисласом Дехэне, Хокваном Лау и Сидом Куайдером из французского колледжа в Калифорнийском университете в Лос-Анджелесе и Исследовательского университета PSL. В нем ученые заявили: пока нет, но есть четкий путь вперед.
|
|
Причина? Сознание «абсолютно вычисляемо», говорят авторы, потому что возникает в процессе специфических видов обработки информации, которые становятся возможными благодаря аппаратным средствам мозга.
|
|
Нет никакого волшебного бульона, никакой божественной искры — даже эмпирической компоненты («каково это — иметь сознание?») не требуется для внедрения сознания.
|
|
Если сознание проистекает чисто из расчетов в нашем полуторакилограммовом органе, то оснащение машин аналогичным свойством — лишь вопрос перевода биологии в код.
|
|
Подобно тому, как современные мощные методы машинного обучения сильно заимствованы из нейробиологии, мы можем достичь и искусственного сознания, изучая структуры в наших собственных мозгах, которые генерируют сознание, и реализуя эти идеи как компьютерные алгоритмы.
|
От мозга к роботу
|
|
Несомненно, область ИИ в высокой степени получила толчок, благодаря изучению нашего собственного мозга, как его формы, так и функции.
|
|
Например, глубокие нейронные сети, архитектурные алгоритмы, которые легли в основу AlphaGo, созданы по примеру многослойных биологических нейронных сетей, организованных в наших мозгах.
|
|
Обучение с подкреплением, тип «обучения», в процессе которого ИИ учится на миллионах примерах, уходит корнями в многовековую технику тренировки собак: если собака делает что-то правильно, то получает награду; в противном случае ей придется повторять.
|
|
В этом смысле перевод архитектуры человеческого сознания на машины кажется простым шагом в сторону искусственного сознания. Есть только одна большая проблема.
|
|
«Никто в сфере ИИ не работает над созданием сознательных машин, потому что нам просто не за что взяться. Мы просто не знаем, что делать», говорит доктор Стюарт Расселл.
|
Многослойное сознание
|
|
Самая трудная часть, которую нужно преодолеть прежде, чем приступить к созданию мыслящих машин, заключается в том, чтобы понять, что такое сознание.
|
|
Для Дехэне и коллег сознание — это многослойный конструкт с двумя «измерениями»: С1, информация, которая хранится в готовом виде в сознании, и С2, способность получать и отслеживать информацию о самом себе. Оба они важны для сознания и не могут существовать друг без друга.
|
|
Допустим, вы управляете автомобилем и загорается маячок, предупреждающий о малом остатке бензина. Восприятие индикатора — это C1, мысленное представление, с которым мы можем взаимодействовать: мы замечаем его, действуем (заправляемся) и рассказываем об этом позже («Бензин закончился на спуске, повезло — докатился»).
|
|
«Первое значение, которое мы хотим отделить от сознания, — это понятие глобальной доступности», объясняет Дехэне. Когда вы осознаете слово, весь ваш мозг понимает это, то есть вы можете пропускать эту информацию через различные модальности.
|
|
Но С1 — это не просто «ментальный альбом». Это измерение представляет собой целую архитектуру, которая позволяет мозгу привлекать несколько модальностей информации из наших чувств или, например, из воспоминаний о связанных событиях.
|
|
В отличие от подсознательной обработки, которая часто опирается на определенные «модули», компетентные в решении определенного набора задач, С1 является глобальным рабочим пространством, которое позволяет мозгу интегрировать информацию, принимать решение о действии и следовать до конца.
|
|
Под «сознанием» мы имеем в виду определенное представление, в определенный момент времени, которое борется за доступ к умственному рабочему пространству и побеждает. Победители распределяются между различными вычислительными схемами мозга и хранятся в центре внимания на протяжении всего процесса принятия решений, определяющих поведение.
|
|
Сознание С1 стабильно и глобально — задействуются все связанные схемы мозга, объясняют авторы.
|
|
Для сложной машины вроде умного автомобиля С1 — это первый шаг к решению надвигающейся проблемы, такой как низкий запас топлива. В данном примере индикатор сам по себе является подсознательным сигналом: когда он загорается, все остальные процессы машины остаются непроинформированными, а автомобиль — даже будучи оснащенным новейшими средствами визуальной обработки — без колебаний проносится мимо заправочной станции.
|
|
С С1 топливный бак уведомит компьютер автомобиля (позволит индикатору проникнуть в «сознательный разум» автомобиля), чтобы тот, в свою очередь, активировал GPS для поиска ближайшей станции.
|
|
«Мы полагаем, что машина преобразует это в систему, которая будет извлекать информацию из всех доступных ей модулей и делать ее доступной для любого другого модуля обработки, которому эта информация может быть полезна», говорит Дехэне. «Это первое чувство сознания».
|
Мета-познание
|
|
В некотором смысле С1 отражает способность разума извлекать информацию извне. С2 же уходит в интроспективу.
|
|
Авторы определяют вторую сеть сознания, С2, как «мета-познание»: оно рефлексирует, когда вы что-то узнаете или воспринимаете либо просто делаете ошибку. («Думаю, я должен был заправиться на прошлой станции, но забыл»). Это измерение отражает связь между сознанием и чувством собственного «я».
|
|
С2 — это уровень сознания, который позволяет вам чувствовать себя более или менее уверенным в принятии решения. С точки зрения вычислительной техники это алгоритм, который выводит вероятность того, что решение (или вычисление) будет правильным, даже если оно часто воспринимается как «шестое чувство».
|
|
С2 также запускает корни в память и любопытство. Эти алгоритмы самоконтроля позволяют нам знать, что мы знаем и что не знаем, — это «мета-память», которая помогает вам нащупать нужное слово «на кончике языка». Наблюдение за тем, что мы знаем (или не знаем) особенно важно для детей, говорит Дехэне.
|
|
«Юным детям абсолютно необходимо следить за тем, что они знают, чтобы учиться и проявлять любопытство», говорит он.
|
|
Два этих аспекта сознания работают сообща: С1 вытягивает релевантную информацию в наше рабочее умственное пространство (отбрасывая другие «возможные» идеи или решения), а С2 помогает с долгосрочной рефлексией о том, привело ли сознательное мышление к полезному результату или ответу.
|
|
Возвращаясь к примеру с индикатором малого топлива, С1 позволяет автомобилю решить проблему моментально — эти алгоритмы глобализируют информацию, и автомобиль узнает о проблеме.
|
|
Но чтобы решить проблему, автомобилю понадобится каталог «познавательных способностей» — самоосознание того, какие ресурсы легко доступны, например, GPS-карта заправочных станций.
|
|
«Автомобиль с самопознанием такого рода — вот что мы называем работой с С2», говорит Дехэне. Поскольку сигнал доступен глобально и отслеживается так, будто машина смотрит на себя со стороны, автомобиль озаботится индикатором малого запаса топлива и поведет себя так же, как человек — снизит потребление топлива и найдет АЗС.
|
|
«Большинство современных систем машинного обучения не имеют никакого самоконтроля», отмечают авторы.
|
|
Но их теория, похоже, идет по верному пути. В тех примерах, где была имплементирована система самонаблюдения — в виде структуры алгоритмов или отдельной сети — ИИ вырабатывали «внутренние модели, которые были мета-познавательные по природе, что позволяло агенту выработать (ограниченное, имплицитное, практическое) понимание самого себя».
|
К сознательным машинам
|
|
Будет ли машина, обладающая моделями С1 и С2, вести себя так, будто обладает сознанием? Очень вероятно: умный автомобиль будет «знать», что что-то видит, выражать уверенность в этом, сообщать об этом другим и находить наилучшее решение проблемы. Если его механизмы самонаблюдения сломаются, он также может испытать «галлюцинации» или визуальные иллюзии, свойственные людям.
|
|
Благодаря С1, он может использовать имеющуюся у него информацию и использовать ее гибко, а благодаря С2, он будет знать пределы того, что знает, говорит Дехэне. «Думаю, эта машина будет обладать сознанием», а не просто казаться таковой людям.
|
|
Если у вас остается ощущение, что сознание — это гораздо больше, чем глобальный обмен информацией и самонаблюдение, вы не одиноки.
|
|
«Такое чисто функциональное определение сознания может оставить некоторых читателей неудовлетворенными», признают авторы. «Но мы пытаемся предпринять радикальный шаг, возможно, упрощая проблему. Сознание — это функциональное свойство, и по мере того, как мы продолжаем добавлять функции машинам, в определенный момент эти свойства будут характеризовать то, что имеем в виду под сознанием», заключает Дехэне.
|
|
Источник
|