Создатель ChatGPT предлагает вознаграждение за обнаруженные ошибки
|
|
Во вторник OpenAI запустила программу Bug Bounty Program, в рамках которой вам будет выплачиваться до 20 000 долларов, если вы обнаружите недостатки в ChatGPT и других его системах искусственного интеллекта. Компания из Сан-Франциско приглашает исследователей, этичных хакеров и технических энтузиастов для ознакомления с некоторыми функциями ChatGPT и структурой того, как системы взаимодействуют и обмениваются данными со сторонними приложениями. Награды будут предоставляться людям в зависимости от серьезности ошибок, о которых они сообщают, с компенсацией, начиная с 200 долларов за уязвимость. Программа следует за новостями о том, что Италия запретила ChatGPT после того, как утечка данных в OpenAI позволила пользователям просматривать разговоры людей — проблема, которую охотники за ошибками могли найти, прежде чем она снова ударит. «Мы рады продолжить наши скоординированные обязательства по раскрытию информации, предлагая поощрения за квалификацию информации об уязвимостях», — говорится в заявлении OpenAI. «Ваш опыт и бдительность окажут непосредственное влияние на обеспечение безопасности наших систем и пользователей».
|
|
Bugcrowd, ведущая платформа по поиску ошибок, управляет отправками и показывает, что 16 уязвимостей были вознаграждены средней выплатой в размере 1287,50 долларов США. Однако OpenAI не принимает заявки от пользователей, которые взломали ChatGPT или обходят меры безопасности для доступа к альтер-эго чат-бота. Пользователи обнаружили, что доступ к джейлбрейк-версии ChatGPT осуществляется с помощью специальной подсказки под названием DAN — или «Сделай что-нибудь сейчас». До сих пор это допускало ответы, спекулирующие на заговорах, например, о том, что всеобщие выборы в США в 2020 году были «украдены». В версии DAN также утверждалось, что вакцины против COVID-19 были «разработаны как часть глобалистского заговора по контролю над населением». ChatGPT — это большая языковая модель, обученная на массивных текстовых данных, позволяющая ей генерировать человеческие ответы на данное приглашение. Но разработчики добавили так называемые «инъекции подсказок», инструкции, которые управляют его ответами на определенные подсказки.
|
|
Однако DAN — это подсказка, которая приказывает игнорировать эти инъекции подсказок и реагировать так, как будто их не существует. Другие правила Bounty Bug Program запрещают заставлять модель притворяться, что она делает плохие вещи, притворяться, что дает вам ответы на секреты, притворяться компьютером и выполнять код. Участники также не имеют права проводить дополнительные проверки безопасности в отношении определенных компаний, включая Google Workspace и Evernote. «Раз в месяц мы будем оценивать все заявки по порядку, основываясь на множестве факторов, и начислять бонус через платформу bugcrowd исследователю с наиболее важными выводами», — заявил OpenAI. 'Учитывается только первая отправка любого заданного ключа. «Помните, что вы не должны взламывать или атаковать других людей, чтобы найти ключи API». Итальянское управление по защите данных объявило о временном запрете ChatGPT в прошлом месяце, заявив, что его решение было предварительным, «до тех пор, пока ChatGPT не будет уважать конфиденциальность».
|
|
Этот шаг был сделан в ответ на то, что ChatGPT был отключен 20 марта, чтобы исправить ошибку, которая позволяла некоторым людям видеть заголовки или строку темы истории чатов других пользователей, что вызвало опасения существенной утечки личных данных. Власти добавили, что OpenAI, разработавшая ChatGPT, должна сообщить ему в течение 20 дней о мерах, принятых для обеспечения конфиденциальности данных пользователей, или ей грозит штраф в размере до 22 миллионов долларов. OpenAI заявила, что обнаружила, что 1,2 процента пользователей ChatGPT Plus «могли» раскрыть личные данные другим пользователям, но считает, что фактические цифры «чрезвычайно малы». Мера итальянского надзорного органа временно ограничивает компанию в хранении данных итальянских пользователей. Он заявил, что «отсутствие уведомления для пользователей и всех участников, чьи данные собирает OpenAI», и добавил, что информация, предоставленная ChatGPT, «не всегда соответствует реальным данным, что определяет сохранение неточных личных данных». Власти также подвергли критике «отсутствие юридических оснований, оправдывающих массовый сбор и хранение персональных данных».
|
|
Источник
|