В начале прошлого года хакер получил доступ к внутренним системам обмена сообщениями OpenAI, создателя ChatGPT, и украл информацию о разработке технологий искусственного интеллекта компании. Хакер извлек подробности из обсуждений на онлайн-форуме, где сотрудники рассказывали о новейших технологиях OpenAI, по словам двух человек, знакомых с инцидентом, но не проникал в системы, где компания размещает и строит свой искусственный интеллект. Руководители OpenAI рассказали об инциденте сотрудникам во время общего собрания в офисах компании в Сан-Франциско в апреле 2023 года и проинформировали совет директоров, по словам двух человек, которые обсуждали конфиденциальную информацию о компании на условиях анонимности. Но руководство решило не публиковать эту новость, поскольку, по словам двух человек, информация о клиентах или партнерах не была украдена. Руководство не сочло инцидент угрозой национальной безопасности, поскольку полагало, что хакер был частным лицом, о связях которого с иностранным правительством ничего не известно. Компания не сообщила об этом ФБР или кому-либо еще из правоохранительных органов.
У некоторых сотрудников OpenAI эта новость вызвала опасения, что иностранные противники, такие как Китай, могут украсть технологии искусственного интеллекта, которые, хотя сейчас в основном используются для работы и исследований, в конечном итоге могут поставить под угрозу национальную безопасность США. Это также вызвало вопросы о том, насколько серьезно OpenAI относится к безопасности, и выявило разногласия внутри компании по поводу рисков, связанных с искусственным интеллектом. После взлома Леопольд Ашенбреннер, менеджер технической программы OpenAI, специализирующийся на обеспечении того, чтобы будущие технологии искусственного интеллекта не причиняли серьезного вреда, направил совету директоров OpenAI служебную записку, в которой утверждал, что компания делает недостаточно для предотвращения кражи ее секретов китайским правительством и другими иностранными противниками.
Мистер Ашенбреннер сказал, что OpenAI уволил его весной этого года за утечку другой информации за пределы компании, и утверждал, что его увольнение было политически мотивированным. Он упомянул о нарушении в недавнем подкасте, но подробности инцидента ранее не сообщались. Он сказал, что система безопасности OpenAI недостаточно надежна, чтобы защитить от кражи ключевых секретов, если в компанию проникнут иностранные агенты. “Мы ценим опасения, которые Леопольд высказывал, работая в OpenAI, и это не привело к его увольнению”, - заявила пресс-секретарь OpenAI Лиз Буржуа. Говоря об усилиях компании по созданию искусственного интеллекта общего назначения, машины, способной делать все, что может делать человеческий мозг, она добавила: “Хотя мы разделяем его приверженность созданию безопасного искусственного интеллекта, мы не согласны со многими заявлениями, которые он с тех пор сделал о нашей работе. Это включает в себя его оценку нашей безопасности, в частности, этого инцидента, который мы рассмотрели и которым поделились с нашим советом директоров до того, как он присоединился к компании”.
Опасения, что взлом американской технологической компании может иметь отношение к Китаю, небезосновательны. В прошлом месяце Брэд Смит, президент Microsoft, дал показания на Капитолийском холме о том, как китайские хакеры использовали системы технологического гиганта для широкомасштабной атаки на сети федерального правительства. Однако, согласно федеральному законодательству и законодательству штата Калифорния, OpenAI не может препятствовать людям работать в компании из-за их гражданства, и исследователи политики заявили, что запрет иностранным талантам участвовать в американских проектах может существенно затруднить прогресс искусственного интеллекта в Соединенных Штатах. “Нам нужны лучшие умы, работающие над этой технологией”, - сказал Мэтт Найт, глава службы безопасности OpenAI, в интервью New York Times. “Это сопряжено с некоторыми рисками, и мы должны их оценить”. (The Times подала в суд на OpenAI и ее партнера Microsoft, заявив о нарушении авторских прав на новостной контент, связанный с системами искусственного интеллекта.)
OpenAI - не единственная компания, создающая все более мощные системы с использованием быстро совершенствующихся технологий искусственного интеллекта. Некоторые из них — в первую очередь Meta, владелец Facebook и Instagram — свободно делятся своими разработками с остальным миром в виде программного обеспечения с открытым исходным кодом. Они считают, что опасности, связанные с современными технологиями искусственного интеллекта, невелики и что совместное использование кода позволяет инженерам и исследователям по всей отрасли выявлять и устранять проблемы. Современные системы искусственного интеллекта могут способствовать распространению дезинформации в Интернете, включая текстовые сообщения, фотоснимки и, все чаще, видео. Они также начинают отнимать часть рабочих мест. Такие компании, как OpenAI и ее конкуренты Anthropic и Google, добавляют ограничения в свои приложения искусственного интеллекта, прежде чем предлагать их частным лицам и компаниям, в надежде помешать людям использовать приложения для распространения дезинформации или создания других проблем.
Но существует не так много свидетельств того, что современные технологии искусственного интеллекта представляют серьезную угрозу национальной безопасности. Исследования, проведенные OpenAI, Anthropic и другими компаниями за последний год, показали, что искусственный интеллект ненамного опаснее поисковых систем. Даниэла Амодей, соучредитель Anthropic и президент компании, заявила, что ее новейшая технология искусственного интеллекта не будет представлять серьезной опасности, если ее разработки будут украдены или свободно переданы другим лицам. “Если бы это принадлежало кому-то другому, могло бы это нанести огромный вред большей части общества? Наш ответ - ”Нет, скорее всего, нет", - сказала она Times в прошлом месяце. “Может ли это ускорить продвижение плохого актера в будущем? Может быть. Это действительно умозрительно”. Тем не менее, исследователи и технические руководители давно опасаются, что ИИ однажды может способствовать созданию нового биологического оружия или помочь взломать правительственные компьютерные системы. Некоторые даже считают, что это может уничтожить человечество.
Ряд компаний, включая OpenAI и Anthropic, уже приостанавливают свою техническую деятельность. Недавно в OpenAI был создан Комитет по безопасности, чтобы изучить, как ему следует справляться с рисками, связанными с технологиями будущего. В состав комитета входит Пол Накасоне, бывший армейский генерал, возглавлявший Агентство национальной безопасности и киберкомандование. Он также был назначен членом совета директоров OpenAI. “Мы начали инвестировать в безопасность за несколько лет до появления ChatGPT”, - сказал мистер Найт. “Мы стремимся не только понять риски и опередить их, но и повысить нашу устойчивость”. Федеральные чиновники и законодатели штатов также настаивают на принятии правительственных постановлений, которые запрещали бы компаниям выпускать определенные технологии искусственного интеллекта и штрафовали бы их на миллионы долларов, если бы их технологии причиняли вред. Но эксперты говорят, что до этих опасностей еще годы или даже десятилетия.
Китайские компании создают собственные системы, которые почти не уступают по мощности ведущим системам США. По некоторым показателям Китай обогнал Соединенные Штаты как крупнейший производитель специалистов в области искусственного интеллекта, поскольку в этой стране работает почти половина ведущих исследователей в области искусственного интеллекта в мире. “Нет ничего безумного в том, что Китай скоро обгонит США”, - сказал Клеман Деланг, исполнительный директор Hugging Face, компании, которая занимается многими мировыми проектами в области искусственного интеллекта с открытым исходным кодом. Некоторые исследователи и руководители служб национальной безопасности утверждают, что математические алгоритмы, лежащие в основе современных систем искусственного интеллекта, хотя и не представляют опасности сегодня, могут стать опасными, и призывают к ужесточению контроля за лабораториями искусственного интеллекта. “Даже если вероятность наихудших сценариев относительно невелика, если они имеют серьезные последствия, мы обязаны отнестись к ним серьезно”, - заявила Сьюзан Райс, бывший советник президента Байдена по внутренней политике и бывший советник президента Барака Обамы по национальной безопасности, во время мероприятия в Кремниевой долине в прошлом месяце. “Я не думаю, что это научная фантастика, как многие любят утверждать”.