ИИ OpenAI Whisper страдает от галлюцинаций
|
Инженеры-программисты, разработчики и научные работники серьезно обеспокоены транскрипцией из OpenAI Whisper, согласно сообщению Associated Press. Несмотря на то, что не было недостатка в дискуссиях по поводу склонности генеративного ИИ к галлюцинациям — по сути, к выдумыванию — немного удивительно, что это проблема транскрипции, когда вы ожидаете, что расшифровка будет точно соответствовать расшифровываемому аудио. |
Вместо этого исследователи сообщили AP, что Whisper привнес в стенограммы все, от расистских комментариев до воображаемых методов лечения. И это может быть особенно пагубным, поскольку Whisper используется в больницах и других медицинских учреждениях. |
![]() |
Исследователь из Мичиганского университета, изучавший публичные собрания, обнаружил галлюцинации в восьми из каждых 10 аудиозаписей. Инженер по машинному обучению изучил более 100 часов расшифровки шепота и обнаружил галлюцинации более чем в половине из них. А один разработчик сообщил, что обнаружил галлюцинации почти во всех 26 000 транскрипциях, которые он создал с помощью Whisper. |
Представитель OpenAI заявил, что компания “постоянно работает над повышением точности наших моделей, в том числе над уменьшением галлюцинаций”, и отметил, что ее правила использования запрещают использование Whisper “в определенных ситуациях, связанных с принятием важных решений”. |
“Мы благодарим исследователей за то, что они поделились своими выводами”, - сказали они. |
Источник |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
При использовании материалов с сайта активная ссылка на него обязательна
|