ИИ ChatGPT клевещет на людей
|
Утверждается, что профессора права ложно обвинили в сексуальных домогательствах в отношении студента из-за дезинформации, подрывающей репутацию, которой поделился ChatGPT. Адвокат по уголовным делам США Джонатан Терли выразил опасения по поводу опасностей искусственного интеллекта (ИИ) после того, как его ошибочно обвинили в нежелательном сексуальном поведении во время поездки на Аляску, в которую он так и не отправился. Чтобы сделать этот вывод, было заявлено, что ChatGPT опирался на процитированную статью Washington Post, которая никогда не была написана, цитируя заявление, которое никогда не публиковалось в газете. Чат-бот также полагал, что «инцидент» произошел, когда профессор работал на факультете, на котором никогда не работал. В своем твите профессор Университета Джорджа Вашингтона сказал: «Вчера президент Джо Байден заявил, что «еще неизвестно», является ли искусственный интеллект (ИИ) «опасным». Я хотел бы отличаться... |
«Я узнал, что ChatGPT ложно сообщил о сексуальных домогательствах, которые никогда не предъявлялись ко мне во время поездки, которой не было, пока я учился на факультете, где никогда не преподавал. «ChatGPT опирался на процитированную статью Post, которая никогда не была написана, и цитирует заявление, которое никогда не делалось газетой». Профессор Терли обнаружил обвинения против него после получения электронного письма от коллеги-профессора. Профессор Калифорнийского университета в Лос-Анджелесе Юджин Волох попросил ChatGPT найти «пять примеров», когда «сексуальные домогательства со стороны профессоров» были «проблемой в американских юридических школах». В статье для USA Today профессор Терли написал, что он числится среди обвиняемых. |
Бот якобы написал: «В жалобе утверждается, что Терли делал «комментарии сексуального характера» и «пытался прикоснуться к ней в сексуальной манере» во время спонсируемой юридической школой поездки на Аляску. (Вашингтон пост, 21 марта 2018 г.)». Говорят, что это произошло, когда профессор Терли работал в юридическом центре Джорджтаунского университета, где он никогда не работал. «Это стало неожиданностью не только для профессора Калифорнийского университета в Лос-Анджелесе Юджина Волоха, проводившего исследование. Для меня это было неожиданностью, так как я никогда не ездил на Аляску со студентами, The Post никогда не публиковала подобную статью, и меня никто никогда не обвинял в сексуальных домогательствах или домогательствах», — написал он для USA Today. Ложные утверждения были расследованы Washington Post, которая обнаружила, что GPT-4 на базе Microsoft также поделился теми же утверждениями о Терли. |
Эта неоднократная клевета, похоже, произошла после освещения в прессе первоначальной ошибки ChatGPT, демонстрирующей, как легко может распространяться дезинформация. После инцидента старший директор Microsoft по связям с общественностью Кэти Эшер сообщила изданию, что компания приняла меры для обеспечения точности своей платформы. Она сказала: «Мы разработали систему безопасности, включающую фильтрацию контента, оперативный мониторинг и обнаружение злоупотреблений, чтобы обеспечить безопасный поиск для наших пользователей». Профессор Терли ответил на это в своем блоге, написав: «Искусственный интеллект может опорочить вас, и эти компании просто пожимают плечами, пытаясь быть точными. «Тем временем их ложные аккаунты распространяются по Интернету. К тому времени, когда вы узнаете о ложной истории, следы ее происхождения с системой искусственного интеллекта часто становятся холодными. «Вы остались без ясного пути или автора в поисках возмещения ущерба. У вас остается тот же вопрос, что и у рейгановского министра труда Рэя Донована, который спрашивал: «Куда мне обратиться, чтобы восстановить свою репутацию?» |
MailOnline обратилась к OpenAI и Microsoft за комментариями. Опыт профессора Терли следует за предыдущими опасениями, что ChatGPT не всегда предоставляет точную информацию. Исследователи обнаружили, что ChatGPT использовал поддельные журнальные статьи и вымышленные данные о здоровье, чтобы подтвердить заявления о раке. Платформа также не смогла предоставить такие «всеобъемлющие» результаты, как те, которые были найдены с помощью поиска Google, как утверждалось, поскольку она ответила на один из 10 вопросов о скрининге рака молочной железы неправильно. Джейк Мур, советник по глобальной кибербезопасности ESET, предупредил, что пользователи ChatGPT не должны воспринимать все, что он читает, как «евангелие», чтобы избежать опасного распространения дезинформации. Он сказал MailOnline: «Чат-боты, управляемые ИИ, предназначены для перезаписи данных, которые были введены в алгоритм, но когда эти данные ложны или вырваны из контекста, есть вероятность, что вывод будет неправильно отражать то, чему их научили». |
«Бассейн данных, из которого он извлек уроки, был основан на наборах данных, включая Википедию и Reddit, которые, по сути, нельзя воспринимать как истину. «Проблема с ChatGPT заключается в том, что он не может проверить данные, которые могут содержать дезинформацию или даже предвзятую информацию. Еще хуже, когда ИИ делает предположения или фальсифицирует данные. Теоретически именно здесь «интеллектуальная» часть ИИ должна взять на себя автономное и уверенное создание выходных данных. Если это вредно, как в этом случае, то это может привести к его падению». Эти опасения также возникают в то время, когда исследователи предполагают, что ChatGPT может «искажать» моральные суждения людей и может оказаться опасным для «наивных» пользователей. Другие рассказали, как программное обеспечение, разработанное для того, чтобы говорить как человек, может проявлять признаки ревности — даже предлагать людям расторгнуть брак. Г-н Мур продолжил: «Мы приближаемся к тому времени, когда нам нужно постоянно подтверждать информацию больше, чем считалось ранее, но мы все еще используем только четвертую версию ChatGPT и даже более ранние версии с ее конкурентами. «Поэтому очень важно, чтобы люди сами тщательно изучали то, что они читают, прежде чем делать поспешные выводы». |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|