Баги в ChatGPT продолжают всплывать
|
|
Создатель ChatGPT подтвердил, что ошибка в системе позволила некоторым пользователям отслеживать истории чатов других людей. Генеральный директор OpenAI Сэм Альтман подтвердил вчера вечером, что компания столкнулась с «серьезной проблемой», которая угрожает конфиденциальности разговоров на ее платформе. Разоблачения появились после того, как несколько пользователей социальных сетей поделились онлайн-разговорами ChatGPT, в которых они не принимали участия. В результате пользователи были заблокированы от просмотра любой истории чата вчера с 8:00 до 17:00 (GMT). Г-н Альтман сказал: «У нас возникла серьезная проблема в ChatGPT из-за ошибки в библиотеке с открытым исходным кодом, для которой сейчас выпущено исправление, и мы только что закончили проверку. Небольшой процент пользователей смог увидеть заголовки истории разговоров других пользователей».
|
|
ChatGPT был основан в Силиконовой долине в 2015 году группой американских бизнес-ангелов, включая нынешнего генерального директора Сэма Альтмана. Это большая языковая модель, обученная на большом количестве текстовых данных, что позволяет ей генерировать ответы на заданное приглашение. Люди во всем мире использовали платформу для написания человеческих стихов, текстов и различных других письменных работ. Однако «небольшой процент» пользователей на этой неделе мог видеть заголовки чатов в своей истории разговоров, которые им не принадлежали. В понедельник один человек в Твиттере предупредил других, чтобы они «осторожно» относились к чат-боту, который показывал им темы для разговоров других людей. На изображении их списка было показано несколько названий, включая «Девочка гоняется за бабочками», «Книги о человеческом поведении» и «Мальчик выживает в одиночном приключении», но было неясно, какие из них не принадлежали им.
|
|
Они сказали: «Если вы используете #ChatGPT, будьте осторожны! Существует риск того, что ваши чаты станут доступны другим пользователям! «Сегодня мне представили историю чата другого пользователя. Я не мог видеть содержимое, но мог видеть названия их недавних чатов». Во время инцидента пользователь добавил, что он столкнулся со многими ошибками, связанными с сетевым подключением, в дополнение к ошибкам «невозможно загрузить историю». По данным BBC, другой пользователь также утверждал, что видел разговоры, написанные на мандаринском диалекте китайского языка, а другой — «Развитие китайского социализма». Хотя функции ChatGPT были временно отключены для устранения проблемы, другие утверждают, что компрометация данных может усугубить другие проблемы. Мариюс Бриедис, эксперт по кибербезопасности NordVPN, сказал: «Это монументальная автогол OpenAI. Всплеск интереса к чат-ботам с искусственным интеллектом, таким как ChatGPT и Google Bard, побудил миллионы людей попробовать эту технологию. Эта ошибка, однако, заставит многих сделать шаг назад.
|
|
«Если в будущем мы все больше будем полагаться на инструменты на основе ИИ, доверие к ним жизненно важно. Целостность информации, которой мы делимся с чат-ботами и другими устройствами, является ключом к такому доверию и никогда не должна подвергаться риску. «Наше недавнее исследование Dark Web показало, что киберпреступники месяцами обходят ChatGPT, чтобы увидеть, как его можно использовать для улучшения таких мошеннических действий, как фишинг и вредоносное ПО. Новости о сбое в системе безопасности подтолкнут их к тому, что пользовательские данные — это еще один способ извлечь выгоду из этой революционной технологии». Другие компании также выразили обеспокоенность по поводу языковой онлайн-модели. В прошлом месяце JP Morgan Chase присоединился к таким компаниям, как Amazon и Accenture, в ограничении использования чат-бота с искусственным интеллектом ChatGPT среди примерно 250 000 сотрудников компании из-за опасений по поводу конфиденциальности данных. Одним из основных общих опасений было то, что данные могут быть использованы разработчиками ChatGPT для улучшения алгоритмов или что инженеры могут получить доступ к конфиденциальной информации. В политике конфиденциальности ChatGPT говорится, что он может использовать личные данные, связанные с «использованием услуг», для «разработки новых программ и услуг». Однако также утверждается, что эта личная информация может быть деидентифицирована или агрегирована до того, как будет проведен анализ службы.
|
|
Источник
|