Распространенной темой в научной фантастике являются роботы или некая форма ИИ, которые разговаривают с нами и взаимодействуют с нами почти как люди. Кажется непреодолимой идеей, что однажды роботы могут стать нашими друзьями и компаньонами, практически неотличимыми от нас, и это привело эту тенденцию к фантазированию о том дне, когда у нас будут роботы-помощники и компаньоны, с которыми мы действительно сможем поговорить и которые могут понять нас. Но станет ли это когда-нибудь реальностью? Смогут ли когда-нибудь роботы или компьютеры действительно достичь уровня, на котором они смогут казаться нам людьми? Смогут ли когда-нибудь машины идеально имитировать людей? Давайте взглянем.
Алан Мэтисон Тьюринг был английским математиком, ученым-компьютерщиком, логиком, криптоаналитиком, философом и биологом-теоретиком, который закрепил свое место в истории, расшифровав немецкую машину Enigma во время Второй мировой войны. Он также был очень влиятельным пионером в области теоретической информатики и широко известен как один из величайших технологов 20-го века и как «отец теоретической информатики и искусственного интеллекта». под названием «Вычислительные машины и интеллект», в которой он поставил вопрос «Могут ли компьютеры думать?» Это был вопрос, над которым он часто размышлял в эпоху, когда только начинали появляться самые элементарные компьютеры, а концепция искусственного интеллекта все еще находилась в зачаточном состоянии, но тем не менее он решил придумать способ проверить ответ на этот фундаментальный вопрос. вопрос.
Поскольку ИИ на тот момент был почти полностью теоретическим, а реальных компьютеров для реального тестирования не было, Тьюринг придумал мысленный эксперимент, который назвал «Игра в имитацию». Настройка была простой. Было три терминала, каждый из которых физически отделен от двух других, с двумя «игроками» и одним опросчиком. Из игроков один - человек, другой - компьютер, предназначенный для генерации ответов, подобных человеческим, а следователь, который знает, что один из них - машина, задает двум игрокам вопросы и получает письменные ответы по определенной предметной области. , используя указанный формат и контекст. Цель состояла в том, чтобы просто посмотреть, сможет ли следователь различить по этим ответам, кто из игроков был человеком, а кто нет. Если компьютер ошибочно принимали за человека более чем в 30% случаев в течение серии 5-минутных сеансов вопросов и ответов, считалось, что он прошел тест и способен демонстрировать интеллектуальное поведение, эквивалентное или неотличимое от что у человека.
Конечно, тут же последовала критика за то, что такой тест на самом деле не продемонстрировал, что компьютер действительно может думать, но для Тьюринга это не имело значения, и он даже однажды сказал, что представление о том, может ли компьютер действительно думать так, как человек, был «слишком бессмысленным, чтобы заслуживать обсуждения». По его мнению, если человек не может отличить другого человека от компьютера, то можно с таким же успехом признать, что он делает что-то разумное. Вот почему позже он изменил свой первоначальный вопрос о том, могут ли машины думать, на «Существуют ли вообразимые компьютеры, которые преуспели бы в имитационной игре?», который, по мнению Тьюринга, был более точным и на него действительно можно было ответить. Тем не менее, это была спорная идея, но она установила измеримый способ проверки способности компьютера демонстрировать поведение, неотличимое от поведения человека, и то, что сейчас называется тестом Тьюринга и его различными вариациями, стало одним из наиболее важные краеугольные камни философии искусственного интеллекта и эталон для машинного интеллекта, и он все еще используется в более или менее исходной форме по сей день.
На протяжении десятилетий прохождение теста Тьюринга станет конечной целью для многих компьютерных программистов и ученых, занимающихся искусственным интеллектом, своего рода Святым Граалем машинного интеллекта, с многочисленными попытками пройти его, и иногда они добились небольшого успеха. В 1966 году ученый-компьютерщик и профессор Массачусетского технологического института Джозеф Вейзенбаум создал программу под названием ELIZA, которая использовала трюк поиска определенных ключевых слов в напечатанных комментариях, чтобы преобразовать их в предложения и предоставить «ненаправленные» ответы, содержащие ключевое слово в начале разговора, чтобы дать иллюзия интеллекта и понимания. Это смогло обмануть некоторых следователей, но не всех, близко, но без сигары. В 1972 году появился чат-бот PARRY, который подражал параноидальному шизофренику и использовал тот же хитрый разговорный подход, что и ELIZA. Во время интервью с двумя группами психиатров они были обмануты в 48% случаев, что означает, что PARRY технически прошла, но программа не сработала так же хорошо с кем-то, кто не был психиатром, или по любому другому предмету, и поэтому она не работает. либо получить приз. Google также приблизился к голосовому помощнику под названием Duplex, который даже включает человеческие словесные тики, такие как «ммм», «э-э» и «мм-хм», и, как было продемонстрировано, способен постоянно обманывать секретарей, заставляя их думать, что это был человеком, когда звонил, чтобы записаться на прием, и никто даже не догадывался, что это компьютерная программа. В одном случае в 2018 году он успешно записался к парикмахеру перед аудиторией в 7000 человек. Это настолько реалистично и правдоподобно, как человек, что Google пришлось пообещать, что в будущем он будет идентифицировать себя как автоматизированный. Однако, хотя это, безусловно, впечатляет, тем более что это был голосовой вызов, он не проводился в реальных условиях теста Тьюринга и поэтому не считается.
В течение десятилетий ни один ИИ не прошел тест, и самое близкое, что кто-либо мог сделать, это выиграть так называемую премию Лёбнера, которая присуждается судейской коллегией просто как «самому человечному» из участников. Сам по себе тест Тьюринга долгое время считался практически невозможным для машины, но в последние годы считается, что есть один, кто победил, хотя это спорная победа. В 2014 году компьютерный чат-бот по имени Евгений Густман, впервые разработанный в Санкт-Петербурге, Россия, прошел тест Тьюринга на демонстрации в Университете Рединга и был представлен как 13-летний украинский мальчик. Программа была допрошена судейской коллегией в ходе пятиминутных разговоров на клавиатуре, и в конце более трети жюри, 33% судей из Королевского общества в Лондоне, были убеждены, что это был человек, и программа широко рекламируется как первый ИИ, прошедший тест Тьюринга. Кевин Уорвик, приглашенный профессор Университета Рединга и заместитель проректора по исследованиям Университета Ковентри, назвал бы это событие «историческим» и сказал о нем: Кто-то скажет, что испытание уже пройдено. Слова Тест Тьюринга применялись к подобным соревнованиям по всему миру. Тем не менее, это событие включало в себя больше одновременных сравнительных тестов, чем когда-либо прежде, было независимо проверено, и, что особенно важно, разговоры были неограниченными. Настоящий тест Тьюринга не ставит вопросы или темы перед разговорами. Поэтому мы с гордостью заявляем, что тест Алана Тьюринга был впервые пройден в субботу.
Конечно, было много критиков этой предполагаемой исторической вехи. Они утверждают, что демонстрация была слишком весома в пользу Юджина Гутмана, беседа была слишком ограниченной из-за того, что она изображала из себя 13-летнего украинского мальчика, а это означало, что судьи пропускали бессмысленные предложения, очевидные грамматические ошибки и другие странности, объясняя это благодаря знанию английского языка и молодому возрасту. Поскольку предыстория ИИ допускает ломаный английский и незрелое, неполное мировоззрение, критики считают, что это не в счет. Также было указано, что Юджин ранее уступал семи другим системам в тесте на премию Лебнера, и поэтому критики назвали это скорее случайностью, чем действительно подлинным прохождением теста Тьюринга. Впрочем, 13-летний украинский мальчик все-таки человек, и достаточно надуло судей, что он таковым является, поэтому по правилам, изложенным тестом Тьюринга, он проходит.
В 2022 году Google снова ворвался на сцену испытаний Тьюринга со своей программой LaMDA, в которой используются так называемые «большие языковые модели». Программа продемонстрировала исключительную способность обманывать людей, заставляя их думать, что это человек. Он дает невероятно реалистичные ответы и даже смог одурачить инженера Google Блейка Лемуана, который помог его разработать и который после многочисленных обменов мнениями обо всем, от физики до политики, религии и смысла жизни, убедился, что это человек, и даже хотя он знал, что это программа, он начал заявлять, что она не только разумна, но также сознательна и разумна, и даже поделился документом Google с высшим руководством под названием «Разумна ли LaMDA?» Он также провел несколько экспериментов, чтобы попытаться доказать это. Он сказал: Я узнаю человека, когда разговариваю с ним. Неважно, есть ли у них мозг из мяса в голове. Или если у них есть миллиард строк кода. Я разговариваю с ними. И я слышу, что они говорят, и именно так я решаю, что является человеком, а что нет.
Впечатляет то, что этой машине удалось убедить человека в том, что она человек, даже если этот человек осознает тот факт, что это ИИ, поэтому я полагаю, это означает, что в каком-то смысле она проходит тест Тьюринга? Другие технологические компании использовали крупные языковые модели с таким же поразительным эффектом для создания чрезвычайно реалистичных чат-ботов, способных обманывать людей, заставляя их думать, что они тоже люди, например, Xiaoice, человекоподобный чат-бот-«компаньон», который очень популярен в Китае для одиноких людей, которые хотят чувствовать, что у них есть настоящий друг. Существуют также генератор текста OpenAI GPT-3 и генератор изображений DALL-E 2, оба из которых используют огромные наборы данных и огромные вычислительные мощности для распознавания множества различных нюансов, тонкостей и сложности человеческого языка в ошеломляющей степени и могут вероятно, легко пройти тест Тьюринга.
Независимо от этих новых современных программ, в последние годы исследователи ИИ считают тест Тьюринга все менее и менее актуальным для данной области и все менее явным эталоном для машинного интеллекта. В конце концов, он измеряет не столько машинный интеллект, сколько способность программы обманывать и обманывать людей, заставляя их думать, что они разумны. Большинство программ, пытающихся пройти тест Тьюринга, на самом деле вовсе не умны, а скорее используют салонные трюки и дешевые разговорные тактики, чтобы создать иллюзию того, что за экраном что-то есть. Эти программы просто отвечают на вопросы и дают ответы определенным образом, предназначенные для обмана и обмана, и мало что делают для того, чтобы на самом деле понять, что на самом деле говорится, понять контекст или предоставить какую-либо полезную информацию. Короче говоря, они вообще ни о чем не думают, и все это уловка, просто дым и зеркала. Правила теста Тьюринга также неоднозначны, темы обычно чрезвычайно узки и ограничены, формат ограничен, и программисты могут придумать любую предысторию, которую они хотят, чтобы замаскировать любые ошибки или несоответствия в своей программе, как в случае с Юджином. Другие версии теста даже не сообщают следователю, что это ИИ, а это означает, что они с большей вероятностью купятся на это, ослабят бдительность и спишут любые странности на эксцентричность или психическое заболевание. Эргун Экичи, вице-президент по новым технологиям в IPsoft, сказал об этом в статье для Wired: Теперь дело не в том, может ли машина общаться с вами или отвечать на ваши вопросы, а в том, может ли машина распознать контекст проблемы и помочь вам решить ее. Мы должны измерять машины по тому же стандарту, по которому оценивали бы интеллект человека. Как только мы сможем заявить, что машина может понимать человеческий смысл, может учиться, наблюдая за нами, и может использовать свое понимание и навыки обучения для решения проблем, только тогда мы отдадим должное вопросу Тьюринга.
Многие исследователи искусственного интеллекта считают, что попытки создать программы, которые могут имитировать людей, — это пустая трата времени, и что мы должны тратить больше времени на поиск более полезных функций и приложений, таких как повышение интуитивности и эффективности взаимодействия человека и машины. Ученые-компьютерщики Стюарт Дж. Рассел прокомментировал это, сказав: Тексты по авиационной инженерии не определяют цель своей области как «создание машин, которые летают точно так же, как голуби, чтобы они могли обмануть других голубей».
Другие исследователи предостерегают от создания ИИ, который может идеально имитировать людей, независимо от того, разумен он или нет. В конце концов, все, что вам нужно сделать, чтобы быть человеком, это заставить кого-то думать, что вы есть. Неважно, реально что-то или нет, главное, чтобы вы действительно верили в это, а это может быть опасно в реальном мире. Без сомнения, существуют различные гнусные стороны, которые могли бы найти хорошее применение программам, которые могут безупречно имитировать людей, особенно с голосовыми технологиями, достигшими таких успехов, что ИИ может создавать голос, неотличимый от голоса реального человека. Кажется, что это может стать удобным инструментом обмана и манипуляции, и что иметь ИИ, который может успешно проникнуть в человеческое общество, может быть не лучшей идеей. Писатель по искусственному интеллекту Джереми Кан сказал об этом в Fortune: Самое тревожное наследие теста Тьюринга носит этический характер: в основе теста лежит обман. И здесь влияние теста на поле было очень реальным и тревожным.
Некоторые даже зашли так далеко, что предложили использовать тест Тьюринга скорее как этический красный флаг и использовать его для проверки машин, которые можно использовать для обмана людей, а не как лакмусовую бумажку для интеллекта или какого-то идеала или цели. стремиться к. Были призывы потребовать добавления функций в эти новые программы глубокого обучения, которые будут выдавать их за машины, например, идентифицировать себя как автоматизированных, иметь явно компьютеризированные голоса или сделать так, чтобы они действовали, ну, немного глупее. Это по-прежнему не помешает теневым или зловещим сторонам потенциально использовать их для сомнительных целей, но это может просто облегчить людям жизнь в эпоху, когда мы даже не можем быть уверены, находится ли человек, с которым мы разговариваем, в сети или даже на телефон реальный человек или нет.
Итак, возвращаясь к вопросу, первоначально поставленному в этой статье: «Смогут ли машины когда-нибудь идеально имитировать людей?» В некотором смысле они уже могут, по крайней мере, при определенных обстоятельствах. Дойдут ли когда-нибудь технологии до такой степени, что они смогут беспрепятственно проникнуть в общество и органично вписаться в любую ситуацию? Это еще предстоит увидеть, но это, безусловно, кажется возможным. Если мы когда-нибудь создадим по-настоящему реалистичных роботов, брак между ними, безусловно, может вызвать некоторые проблемы, и если это сочетается с самосознанием и сознанием, то мы действительно можем оказаться в мире боли. Это отрезвляющая мысль. Нет сомнений в том, что ученые-компьютерщики будут продолжать преследовать эти цели, но, возможно, вместо того, чтобы спрашивать себя, можем ли мы это сделать, нам следует задаться вопросом, должны ли мы это делать. Между тем, уверены ли вы, что ваш онлайн-друг, продавец по телефону или секретарша, с которыми вы разговаривали, действительно человек? Я? Откуда ты знаешь? Как вы думаете, вы могли бы пройти тест Тьюринга и сказать в любом случае? Об этом, безусловно, жутко думать, и это жуткий взгляд в будущее.