ИИ ChatGPT обладает отличным эмоциональным интеллектом
|
Исследователь обнаружил, что ChatGPT и GPT-4 обладают отличным EQ или эмоциональным интеллектом. Однако приложения на основе ChatGPT и GPT-4 также делают акцент на эмоциях, а не на фактах, в дополнение к галлюцинациям и искажению фактов. Новое исследование показало, что ChatGPT и GPT-4 обладают отличным эмоциональным интеллектом и могут использоваться в качестве отличного инструмента для обучения детей. Билл Гейтс даже дошел до того, что заявил, что приложения на основе ChatGPT и GPT-4 будут использоваться учителями для обучения студентов примерно через 18 месяцев. Однако есть и очевидные проблемы. Исследование показало, что не только ChatGPT и GPT-4 обладают отличным эмоциональным интеллектом, но и в ряде случаев склонны отдавать предпочтение эмоциям, а не фактам. |
Арвинд Нараянан, профессор компьютерных наук из Принстона, настроил речевой интерфейс к ChatGPT для своей почти четырехлетней дочери. Это было частью эксперимента и частью его веры в то, что агенты искусственного интеллекта (ИИ) однажды сыграют значительную роль в ее жизни. Дочь Нараянана, естественно, интересовалась, часто спрашивая о животных, растениях и человеческом теле, и он считал, что ChatGPT может дать полезные ответы. К его изумлению, чат-бот OpenAI проявил себя превосходно с точки зрения эмпатии после того, как сообщил системе, что разговаривает с крошечным ребенком. Корпорация Microsoft и компания Google, принадлежащая Alphabet Inc, стремятся улучшить свои поисковые системы, используя огромную технологию языковой модели, которая лежит в основе ChatGPT, но есть основания полагать, что эта технология работает лучше как эмоциональный компаньон, чем как источник информации. |
Это может показаться странным, но еще более странно то, что Bard от Google и Bing от Microsoft, оба из которых основаны на базовой технологии ChatGPT, позиционируются как инструменты поиска, несмотря на историю досадных фактических ошибок. В самой первой демонстрации Bard предоставил неверную информацию о телескопе Джеймса Уэбба, а Bing допустил ряд финансовых ошибок в своем представлении. Когда чат-бот используется для поиска, цена фактических ошибок значительна. По словам Евгении Куйды, изобретателя сопутствующего приложения для искусственного интеллекта Replika, которое было загружено более 5 миллионов раз, оно значительно ниже, если оно предназначено в качестве сопутствующего. «Это не испортит впечатление, в отличие от поиска, где небольшие ошибки могут подорвать доверие к продукту», — объяснил Куйда. |
Маргарет Митчелл, бывший исследователь Google AI, соавтор исследования опасностей огромных языковых моделей, заявила, что они «не подходят для своей цели» в качестве поисковых систем. Языковые модели производят ошибки, потому что данные, на которых они обучаются, часто содержат неточности, а модели не имеют оснований для проверки того, что они говорят. Их дизайнеры также могут отдавать предпочтение беглости, а не точности. Это одна из причин, по которой эти инструменты так хорошо имитируют эмпатию. В конце концов, они учатся на контенте, извлеченном из Интернета, таком как выразительные ответы, выраженные в социальных сетях, таких как Twitter и Facebook, а также личная помощь, предлагаемая участникам форумов, таких как Reddit и Quora. Разговоры из сценариев фильмов и телевизионных шоу, диалоги из романов и исследовательские работы по эмоциональному интеллекту — все это брошено в тренировочный котел, чтобы эти инструменты выглядели сострадательными. |
Согласно статье, опубликованной в этом месяце в Bloomberg Businessweek, некоторые люди используют ChatGPT как своего рода робота-терапевта. Один пользователь заявил, что они использовали его, чтобы не быть обузой для других, даже для своего терапевта. Клинический психолог Томас Уорд из Королевского колледжа Лондона, который изучал роль программного обеспечения в лечении, предостерегает от предположения, что ИИ может должным образом заменить дыру для тех, кто нуждается в психиатрической помощи, особенно если их проблемы значительны. Чат-бот, например, вряд ли распознает, что эмоции человека слишком сложны для понимания. ChatGPT, другими словами, редко говорит «я не знаю», потому что он был создан, чтобы давать ответы с уверенностью, а не с осторожностью. Людям следует с осторожностью относиться к использованию чат-ботов для регулярного выражения своих эмоций. «Тонкие аспекты человеческой связи, такие как прикосновение руки или знание, когда говорить, а когда слушать, могут быть потеряны в мире, который рассматривает чат-боты с искусственным интеллектом как решение человеческого одиночества», — добавляет Уорд. Это может привести к большему количеству проблем, чем мы думаем, что решаем. В настоящее время они более надежны благодаря своим эмоциональным способностям, чем знанию фактов. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|