ИИ GPT-4 приблизился к успешной сдаче теста Тьюринга
|
Достижения в области искусственного интеллекта (ИИ) поднимают важные вопросы о том, воспринимают ли люди моральные оценки с помощью систем ИИ аналогично моральным оценкам, созданным человеком. Мы провели модифицированный моральный тест Тьюринга (m-MTT), вдохновленный Алленом и соавторами. (Exp Theor Artif Intell 352: 24-28, 2004), предлагая людям отличать реальные человеческие моральные оценки от оценок, сделанных с помощью популярной продвинутой языковой модели искусственного интеллекта: GPT-4. Репрезентативная выборка из 299 взрослых американцев впервые оценила качество моральных оценок, не видя их источника. Примечательно, что они оценили моральные рассуждения ИИ как превосходящие человеческие практически по всем параметрам, включая добродетельность, интеллект и надежность, что соответствует тому, что Аллен и его коллеги называют сравнительным критерием MTT. |
![]() |
Затем, когда была поставлена задача определить источник каждой оценки (человека или компьютер), результаты были значительно выше уровня вероятности. Хотя ИИ не прошел этот тест, это произошло не из-за его низкого морального уровня, а, возможно, из-за его предполагаемого превосходства среди других возможных объяснений. Появление языковых моделей, способных вызывать моральные реакции, которые воспринимаются как превосходящие человеческие по качеству, вызывает опасения, что люди могут некритично воспринимать потенциально вредные моральные рекомендации ИИ. Эта возможность подчеркивает необходимость защиты порождающих языковых моделей в вопросах морали. |
Источник |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
При использовании материалов с сайта активная ссылка на него обязательна
|