Врачи предостерегают от использования ChatGPT
|
|
Врачи предостерегают от использования ChatGPT для медицинских консультаций после того, как исследование показало, что при запросе информации о раке он выдумывает данные о здоровье. Чат-бот с искусственным интеллектом ответил неправильно на каждый десятый вопрос о скрининге рака молочной железы, и правильные ответы были не такими «всеобъемлющими», как ответы, найденные с помощью простого поиска в Google. Исследователи говорят, что в некоторых случаях чат-бот ИИ даже использовал поддельные журнальные статьи для подтверждения своих утверждений. Это происходит на фоне предупреждений о том, что пользователи должны относиться к программному обеспечению с осторожностью, поскольку оно имеет тенденцию «галлюцинировать» — другими словами, придумывать вещи.
|
|
Исследователи из Медицинской школы Университета Мэриленда попросили ChatGPT ответить на 25 вопросов, связанных с рекомендациями по обследованию на рак молочной железы. Поскольку известно, что чат-бот меняет свой ответ, каждый вопрос задавался три раза. Затем результаты были проанализированы тремя рентгенологами, обученными маммографии. «Подавляющее большинство» — 88 процентов — ответов были уместными и понятными. Но некоторые из ответов, однако, были «неточными или даже вымышленными», предупреждают они. Например, один ответ был основан на устаревшей информации. В нем рекомендовалось отложить маммографию на четыре-шесть недель после вакцинации против Covid-19, однако этот совет был изменен более года назад, чтобы рекомендовать женщинам не ждать. ChatGPT также давал противоречивые ответы на вопросы о риске заболеть раком молочной железы и о том, где сделать маммографию. Исследование показало, что ответы «значительно менялись» каждый раз, когда задавался один и тот же вопрос.
|
|
Соавтор исследования доктор Пол Йи сказал: «По нашему опыту мы видели, что ChatGPT иногда выдумывает фальшивые журнальные статьи или консорциумы здравоохранения, чтобы поддержать свои утверждения. «Потребители должны знать, что это новые, непроверенные технологии, и им все равно следует полагаться на своего врача, а не на ChatGPT, за советом». Выводы, опубликованные в журнале Radiology, также показали, что простой поиск в Google по-прежнему дает более исчерпывающий ответ. Ведущий автор, доктор Хана Хейвер, сказала, что ChatGPT полагался только на один набор рекомендаций одной организации, выпущенный Американским онкологическим обществом, и не предлагал отличающихся рекомендаций, выдвинутых Управлением по контролю и профилактике заболеваний или Целевой группой профилактических служб США. Запуск ChatGPT в конце прошлого года вызвал волну спроса на эту технологию, и миллионы пользователей теперь используют инструменты каждый день, от написания школьных сочинений до поиска советов по здоровью.
|
|
Microsoft вложила значительные средства в программное обеспечение, лежащее в основе ChatGPT, и внедряет его в свою поисковую систему Bing и Office 365, включая Word, PowerPoint и Excel. Но технический гигант признал, что все еще может ошибаться. Эксперты по искусственному интеллекту называют это явление «галлюцинацией», когда чат-бот, который не может найти ответ, на котором он обучен, уверенно отвечает выдуманным ответом, который он считает правдоподобным. Затем он продолжает неоднократно настаивать на неправильном ответе без какого-либо внутреннего осознания того, что это продукт его собственного воображения. Однако д-р Йи предположил, что результаты в целом были положительными: ChatGPT правильно ответил на вопросы о симптомах рака молочной железы, о том, кто подвержен риску, а также на вопросы о стоимости, возрасте и рекомендациях по частоте маммографии. Он сказал, что доля правильных ответов была «довольно удивительной», с «дополнительным преимуществом обобщения информации в легко усваиваемой форме, которую потребители могут легко понять». Более тысячи ученых, экспертов и боссов в технологической отрасли недавно призвали к экстренному прекращению «опасной» «гонки вооружений» для запуска новейшего ИИ. Они предупредили, что битва между технологическими фирмами за разработку еще более мощных цифровых умов «вышла из-под контроля» и представляет «серьезные риски для общества и человечества».
|
|
Источник
|