У ИИ-моделей проявилась способность проводить аналогии
|
Большие языковые модели, такие как OpenAI GPT-3, демонстрируют способность к решению логических задач, проводя аналогии — это роднит их с образом мышления человека, который находит решения новых задач, сравнивая их с уже известными, гласят результаты нового исследования учёных из Калифорнийского университета в Лос-Анджелесе (США). Авторы исследования предложили GPT-3 несколько логических задач, которые можно решить, применив известную схему к новой ситуации, и обнаружили, что нейросеть действительно может рассуждать по аналогии, пользуясь этим инструментом так же эффективно или даже более эффективно, чем человек. Учёные считают, что эти возможности модель получила за счёт большого объёма и разнообразия обучающих данных, хотя напрямую таким методам рассуждений систему не обучали. |
![]() |
Психологи склонны считать, что человек рассуждает по аналогии, применяя «систематическое сравнение знаний, основанное на явных реляционных представлениях», то есть связях между элементами. Но механизмы рассуждения по аналогии у машины понятны не до конца — учёные допускают, что у ИИ-модели может быть некое сходство с блоками человеческого мышления, но пока нельзя исключать вероятности, что этот интеллектуальный процесс фундаментально отличается от человеческого. Допускается и более простое объяснение: GPT-3 был обучен на огромном пласте человеческого языка, который сам по себе является плодом человеческой интеллектуальной эволюции и богат аналогиями — иными словами, ИИ «фундаментально паразитирует на естественном человеческом интеллекте», как выразились исследователи. |
Источник |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
При использовании материалов с сайта активная ссылка на него обязательна
|