ИИ GPT-4 прошел тест Тьюринга
|
Мы взаимодействуем с искусственным интеллектом (ИИ) онлайн не только чаще, чем когда—либо, но и чаще, чем мы думаем, поэтому исследователи попросили людей пообщаться с четырьмя агентами, включая одного человека и три различных типа моделей ИИ, чтобы понять, смогут ли они уловить разницу. "Тест Тьюринга", впервые предложенный как "имитационная игра" ученым-компьютерщиком Аланом Тьюрингом в 1950 году, определяет, является ли способность машины демонстрировать интеллект неотличимой от человеческой. Чтобы машина прошла тест Тьюринга, она должна уметь разговаривать с кем-то и обманывать его, заставляя думать, что это человек. Ученые решили повторить этот тест, попросив 500 человек поговорить с четырьмя респондентами, в том числе с человеком и программой искусственного интеллекта ELIZA 1960-х годов, а также с GPT-3.5 и GPT-4, ИИ, поддерживающим ChatGPT. Беседы продолжались пять минут, после чего участники должны были ответить, считают ли они, что разговаривают с человеком или с искусственным интеллектом. В исследовании, опубликованном 9 мая на сервере arXiv для предварительной печати, ученые обнаружили, что участники в 54% случаев считали GPT-4 человеком, |
ELIZA, система, предварительно запрограммированная на ответы, но не имеющая большой языковой модели (LLM) или архитектуры нейронной сети, была оценена как "человеческая" всего в 22% случаев. GPT-3.5 набрала 50% баллов, в то время как участник-человек набрал 67%. "Машины, как и люди, могут придумывать правдоподобные объяснения происходящему задним числом", - сказала в интервью Live Science Нелл Уотсон, исследователь искусственного интеллекта из Института инженеров электротехники и электроники (IEEE). "Они могут быть подвержены когнитивным предубеждениям, их можно одурачить, ими можно манипулировать, и они становятся все более обманчивыми. Все эти элементы означают, что в системах искусственного интеллекта проявляются человеческие слабости и причуды, что делает их более похожими на людей, чем предыдущие подходы, которые представляли собой не более чем список готовых ответов". Исследование, основанное на десятилетиях попыток заставить агентов ИИ пройти тест Тьюринга, отражает общие опасения по поводу того, что системы ИИ, считающиеся человеческими, будут иметь "широкомасштабные социальные и экономические последствия". |
![]() |
Ученые также утверждали, что есть обоснованные критические замечания по поводу слишком упрощенного подхода к тесту Тьюринга, заявив, что "стилистические и социально-эмоциональные факторы играют большую роль в прохождении теста Тьюринга, чем традиционные представления об интеллекте". Это говорит о том, что мы искали машинный интеллект не в том месте. "Чистый интеллект - это далеко не все. На самом деле важно быть достаточно сообразительным, чтобы понимать ситуацию, навыки других людей и обладать эмпатией, позволяющей соединить эти элементы воедино. Возможности — это лишь малая часть ценности ИИ, их способность понимать ценности, предпочтения и границы других людей также важна. Именно эти качества позволят ИИ стать верным и надежным помощником в нашей жизни". Уотсон добавила, что это исследование представляет собой вызов будущему взаимодействию человека и машины и что мы будем становиться все более параноидальными в отношении истинной природы взаимодействий, особенно в деликатных вопросах. Она добавила, что исследование показывает, как изменился ИИ в эпоху GPT. |
"ELIZA была ограничена стандартными ответами, что значительно ограничивало ее возможности. Это могло ввести кого-то в заблуждение на пять минут, но вскоре ограничения становились очевидными", - сказала она. "Языковые модели бесконечно гибки, они способны синтезировать ответы на широкий круг вопросов, говорить на определенных языках или социолектах и демонстрировать свой характер и ценности. Это огромный шаг вперед по сравнению с тем, что программируется вручную человеком, каким бы умным и тщательным оно ни было". |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|