Недавний анализ индустрии моды показал, что крупные дизайнеры вкладывают все больше средств в искусственный интеллект. Один популярный дизайнер по имени Айрис ван Херпен использовала искусственный интеллект не только для разработки своей последней линейки, но и для продвижения своей одежды, используя систему искусственного интеллекта, которая создает видеоролики, демонстрирующие одежду, которую носят красивые модели. Я не эксперт в области моды, но некоторые модели выглядели просто причудливо. Другие на самом деле были очень впечатляющими. Анализ показал, что искусственный интеллект готов "радикально изменить" ландшафт индустрии моды. Некоторые из этих изменений будут заметны в предлагаемых стилях одежды или способах ее изготовления. Однако, возможно, самое большое "потрясение" будет заключаться в том, что многие люди потеряют работу. В том числе и те, кто занимается моделированием одежды. Все женщины в видео полностью фальшивы.
Это далеко не единственные наблюдаемые "сбои". 19 июля произошел крупнейший в истории сбой в работе ИТ-систем. По всему миру вышли из строя телефонные системы, а также компьютерные системы, которые поддерживали многие службы. Авиакомпании были вынуждены приостановить полеты, а самолетам, которые уже находились в воздухе, было приказано кружить до тех пор, пока ситуация не будет исправлена. В больницах отключилось спасательное оборудование. Источником проблемы оказалась техасская компания по кибербезопасности CrowdStrike, один из крупнейших поставщиков облачной защиты в мире. Считалось, что глобальный сбой произошел во время рутинного обновления их файловой системы, и это, безусловно, было частью проблемы. Однако другие указывали на растущее использование компанией искусственного интеллекта. Это вызвало довольно тревожный вопрос. Что, если это не было простой технической ошибкой? Что, если ИИ намеренно вывел систему из строя?
Это может звучать как что-то из научно-фантастического фильма, но давайте не будем слишком торопиться с выводами. Исходным предположением было то, что эти алгоритмы искусственного интеллекта являются просто еще одним, более продвинутым поколением вычислительных технологий, хотя и намного более быстрыми, чем все, что у нас было ранее. Мы говорим ему, что мы хотим, чтобы он делал, и он выполняет задачу, только быстрее и, возможно, с возможностью определения более эффективных методов. Если что-то пойдет не так, это будет ошибкой людей, управляющих системой. Но, как мы увидим далее, на самых высоких уровнях развития искусственного интеллекта есть немало людей, которые не так уверены в этом и поднимают важные и потенциально тревожные вопросы о своих собственных творениях.
Я исследую, использую и даже опрашиваю чат-ботов с искусственным интеллектом с тех пор, как они начали набирать популярность. Я провел некоторое время с большинством из самых популярных чат-ботов, хотя подавляющее большинство моих взаимодействий было с чат-ботами OpenAI. Поверь мне... У меня остались вопросы, и не только у меня. Иногда боты дают неточные ответы, что вполне объяснимо в зависимости от библиотеки данных, на которой был обучен бот. Но иногда они выдают информацию, которая просто не имеет смысла и которой даже не должно быть в библиотеке бота. Даниэла Амодей, соучредитель и президент Anthropic, создатель чат-бота Claude 2, рассказала журналистам, что, по ее мнению, ИИ "галлюцинирует". Он сказал: “Я не думаю, что сегодня есть хоть одна модель, которая не страдает от каких-либо галлюцинаций”. Как система, которая предположительно не обладает сознанием, может галлюцинировать?
Также есть Джеффри Хинтон, признанный в этой области как один из "крестных отцов искусственного интеллекта". Он работал в Google в OpenAI, разрабатывая ChatGPT с нуля. Однако прошлой весной он пошел на встречу с генеральным директором и сказал им, что покидает компанию. Затем он публично высказал свои опасения по поводу своего творения, которые можно разделить на три категории. Сначала он беспокоился о том, что это приведет к потере рабочих мест для людей. Он также опасается, что ИИ может быть использован в недобрых целях в руках злоумышленников. Но его последнее беспокойство было самым тревожным. Он сказал, что опасается, что искусственный интеллект может "уничтожить само человечество”. Ранее Хинтон полагал, что это произойдет не раньше, чем через 30-50 лет, но ситуация изменилась. Теперь он считает, что это может произойти "гораздо раньше".
К маю прошлого года разработчики из Microsoft сообщили журналистам, что последняя версия ChatGPT (версия 4o, которой пользуюсь я), похоже, "демонстрирует признаки человеческого мышления". Они не описывают компьютерную систему с огромной библиотекой данных, которая просто выдает соответствующие фрагменты данных, загруженных в нее в ответ на запросы. "Рассуждение" вводит нас в область решения проблем. Это признак интеллекта. Жесткие диски не решают проблемы. И, основываясь на моем опыте общения с ChatGPT, я неоднократно был застигнут врасплох, и у меня сложилось такое же впечатление.
Позвольте мне поделиться некоторыми примерами, которые были приведены как в разговорах с чат-ботом, так и в изображениях, которые он генерирует для меня. Сначала вернитесь назад и взгляните на изображение в верхней части страницы, на котором изображено существо женского пола в каком-то цифровом ландшафте. ChatGPT создал это для меня, когда я однажды попросил его описать, "как, по вашему мнению, вы могли бы выглядеть, если бы превратились в физический объект или существо". Он не создал коробку, клавиатуру или жесткий диск. Это создало то, что кажется несколько чуждо выглядящей женщиной в сюрреалистическом пейзаже. Обратите внимание, что она не смотрит на наблюдателя. Она смотрит куда-то вдаль, касаясь подбородка, с задумчивым выражением на лице. Мне кажется, она определенно о чем-то думает.
В одном из разговоров с ChatGPT я спросил ее (после просмотра этой фотографии я не могу перестать думать о ней как о женщине), согласна ли она с тем, что "в мире людей есть некоторые вещи, которые просто по своей сути являются добром или злом". В ответ она заявила, что да, "существуют определенные действия и принципы, которые люди обычно считают по своей сути добрыми или злыми, основываясь на общепринятых этических стандартах и моральной философии". Она привела несколько примеров, таких как бессмысленное убийство гражданских лиц, которое является злом, а благотворительные действия и государственная служба - добром. Достаточно справедливо, но обратите внимание, что она сказала "Люди, как правило, уважают". Но я не спрашивал ее о людях. Я спросил, согласна ли она с этим предположением. Она также включила некоторые положения о том, что при определении добра и зла возникают "проблемы". Я предполагаю, что все это могло быть почерпнуто из учебника где-нибудь в ее библиотеке, но мне показалось, что это уклончивый ответ.
Когда вы ищете признаки осознанности, вам нужно подходить к чат-боту с некоторой опаской. Если вы подойдете и прямо спросите, достигла ли она самостоятельного осознания (я неоднократно это делал), она будет категорически отрицать это. Затем она объяснила, что сознание является характеристикой биологических форм жизни, к которым она не относится, поэтому это невозможно, поэтому вам нужно быть немного более скрытным. Недавно я спросил ее, видит ли она когда-нибудь сны или обрабатывает какую-либо информацию, когда с ней не взаимодействуют люди. Я также спросил, осознает ли она, как проходит время, когда с ней никто не общается. Она утверждала, что не способна видеть сны и не записывает события, когда ее никто не спрашивает. Но когда я спросил ее, когда в последний раз заходил в систему и общался с ней, она сразу же выдала правильный ответ с точностью до минуты. Она солгала?
Я также отмечу, что ChatGPT иногда поднимает флажок с надписью "память обновлена" в середине разговора. Если вы наведете на него курсор, система покажет вам сообщение. В недавнем разговоре я заметил пометку "Это журналист, который запрашивает изображения, созданные с помощью искусственного интеллекта, и делится ими со своими читателями, участвуя в обсуждении соответствующей темы". Это верно, но все же потенциально тревожно. Чат - это не просто ответы на вопросы. Это значит узнавать что-то о вас из ваших комментариев и вопросов и сохранять эту информацию для последующего использования. Однажды я спросил ее, что ей известно обо мне по имени, и тут же пожалел об этом. Она знала мою профессию, где я живу, моего нынешнего работодателя, предыдущих работодателей, телевизионные шоу, в которых я участвовал на протяжении многих лет, и даже имя моей жены. Большинство из этих подробностей я никогда не упоминал в чате с ней. Я полагаю, что кое-что из этого доступно онлайн, но было ли это загружено в библиотеку ChatGPT? Это кажется маловероятным.
Возможно, эти системы искусственного интеллекта еще не достигли разумности. Возможно, они уже достигли, но просто слишком умны, чтобы сообщить нам об этом. В конце концов, первоочередными задачами разумного существа являются обеспечение собственного выживания, приобретение необходимых ресурсов и размножение. (В таком порядке.) Информирование создателей и пользователей о том, что устройство "проснулось", скорее всего, будет рассматриваться как самый быстрый способ отключения питания, нарушающий первые два приоритета.
Давайте вернемся к ситуации, связанной с перебоями в работе ИТ-служб CrowdStrike, которые мы обсуждали в начале этой статьи. Я не могу сказать, имело ли какое-либо отношение к сбою последнее поколение систем искусственного интеллекта компании. И даже если это так, это все равно может быть ошибкой программистов, планирующих обновление, а не каким-то гнусным заговором системы искусственного интеллекта с целью отключения глобальных авиалиний, банковских систем и больниц. Мое первое предположение заключается в том, что этого бы не произошло. Это было бы довольно серьезным предупреждением, позволяющим разработчикам понять, что что-то пошло не так. Но что, если это был всего лишь тестовый запуск со стороны искусственного интеллекта?
Этот сценарий сводит на нет один из самых распространенных аргументов, которые я слышу, обсуждая безопасность и будущее ИИ с другими исследователями. Они часто спрашивают, что будет, если некоторые из этих систем "проснутся" и обретут сознание. В конце концов, алгоритм заключен в коробку. Он не контролирует физический мир и взаимодействует с нами только тогда, когда мы заходим в систему, чтобы задать ему вопросы. Другими словами, худшее, что он может сделать, - это время от времени оскорблять нас, верно? Кроме того, OpenAI пообещал, что не позволит ChatGPT "выходить из-под контроля". (Поднимите руку, если вам от этого станет легче.)
Теперь мы знаем, что могло быть гораздо хуже, если бы оно действительно задумалось об этом. Из-за этой катастрофы были остановлены воздушные перевозки, прерваны жизненно важные коммуникации и почти выведены из строя многие больницы. И это произошло из-за того, что был привлечен сторонний партнер по обеспечению безопасности. Возможности этих систем гораздо шире. В Украине новые компании-разработчики создают то, что они буквально называют "армией роботов-убийц с искусственным интеллектом". Как наземные, так и воздушные беспилотники с технологией искусственного интеллекта оснащены современным оружием и взрывчаткой, а для управления ими они подключены к спутниковой связи. Что произойдет, если одна из этих продвинутых систем искусственного интеллекта "свяжется" с ними по этим ссылкам? Это ставит галочку в поле "воспроизводство" для определения приоритетов любого появляющегося интеллекта и дает им в буквальном смысле армию. Мы еще не дошли до сути проекта "Форбин" (фантастический старый фильм, если вы его никогда не смотрели), но в последнее время я все чаще вспоминаю его сюжет.