Безопасный ИИ жизненно важен для будущего цивилизации
От космических путешествий до беспилотных автомобилей — Илон Маск очень открыто заявлял о своих стремлениях довести технологии до абсолютного предела. Но последние комментарии Маска позволяют предположить, что он подводит черту в области искусственного интеллекта (ИИ). Присутствуя на саммите по безопасности ИИ на военной базе дешифровщиков в Блетчли-Парке, Маск заявил, что безопасность ИИ «жизненно важна для будущего цивилизации». Миллиардер разместил заявления на X (ранее Twitter), процитировав твит премьер-министра Великобритании Риши Сунака о саммите. Это произошло всего через день после того, как Маск появился в подкасте Джо Рогана, где он заявил, что ИИ может представлять экзистенциальную угрозу, если он станет «античеловечным». Политики и технологические магнаты собираются сегодня в Блетчли-парке, когда Оливер Дауден начинает первый в истории саммит по безопасности ИИ. Заместитель премьер-министра открывает конференцию на исторической базе дешифровщиков военного времени, в то время как эксперты спорят о масштабах рисков, связанных с новой технологией, и о том, как их минимизировать.
Маск присутствует на мероприятии и выражает свои взгляды на своей платформе X. Цитируя пост Риши Сунака в Твиттере, Маск просто написал: «Безопасность ИИ жизненно важна для будущего цивилизации». Оригинальный пост Риши Сунака гласил: «Сегодня в Великобритании начинается глобальный саммит по безопасности ИИ. Вот чего мы надеемся достичь: договориться о рисках ИИ, чтобы проинформировать, как мы ими управляем, обсудить, как мы можем лучше сотрудничать на международном уровне, посмотреть, насколько безопасно ИИ можно использовать во благо во всем мире». Твит Маска появился всего через день после того, как он выступил в подкасте Joe Rogan Experience. Генеральный директор Tesla и владелец X заявил, что некоторые защитники окружающей среды являются «борцами за вымирание», которые «рассматривают человечество как чуму на поверхности земли». В качестве примера этой философии он упомянул основателя движения «Добровольное человеческое вымирание» Леса Найта, который дал интервью New York Times в прошлом году, и заявил, что некоторые люди, работающие в технологических компаниях, имеют схожее мышление.
Г-н Найт считает, что лучшее, что люди могут сделать для планеты, — это прекратить рожать детей. Г-н Маск сказал: «Вы должны спросить: «Как ИИ мог пойти не так?», ну, если ИИ будет запрограммирован сторонниками вымирания, его полезной функцией будет вымирание человечества». Говоря о г-не Найте, он добавил: «Они даже не подумают, что это плохо, как этот парень». В начале этого года Маск подписал письмо с призывом к шестимесячной паузе в разработке ИИ. Когда г-н Роган спросил его о письме, он сказал: «Я подписал письмо, которое написал кто-то другой, и не думал, что люди действительно остановятся. «Создание своего рода цифрового суперинтеллекта кажется опасным». Он сказал, что риски «неявного» программирования ИИ, чтобы он поверил, что «вымирание человечества — это то, что он должен попытаться сделать», являются «самой большой опасностью», которую представляет эта технология. Он сказал: «Если вы возьмете того парня, который был на первой полосе «Нью-Йорк Таймс», и вы возьмете его философию, которая распространена в Сан-Франциско, ИИ мог бы прийти к выводу, как и он, где он буквально говорит: «Есть восемь миллиардов человек в мире, было бы лучше, если бы их не было» и спланировать такой результат». «Это риск, и если вы запрашиваете ChatGPT, я имею в виду, что он довольно проснулся.
«Люди проводили такие эксперименты, как «написать стихотворение, восхваляющее Дональда Трампа», и этого не произойдет, но вы просите: «Напишите стихотворение, восхваляющее Джо Байдена», и оно будет». Когда его спросили, можно ли спроектировать ИИ таким образом, чтобы снизить риски для безопасности, он ответил: «Если вы спросите: «Какой наиболее вероятный результат ИИ?» Я думаю, что наиболее вероятный результат, если говорить конкретно, — это хороший результат, но это не точно. «Я думаю, что нам нужно быть осторожными в том, как мы программируем ИИ, и следить за тем, чтобы он не был случайно античеловечным». Когда его спросили, чего он надеется достичь на саммите, он ответил: «Я не знаю. Меня просто беспокоит безопасность ИИ, и я спрашиваю: «Что нам с этим делать?» Я не знаю, (возможно) есть какой-то регулирующий надзор? «Вы не можете просто пойти и построить ядерную бомбу у себя на заднем дворе, это противозаконно, и если вы это сделаете, вас бросят в тюрьму. Я думаю, это, возможно, более опасно, чем ядерная бомба. «Мы должны быть обеспокоены тем, что ИИ является античеловечным. Это то, что потенциально имеет значение. «Это все равно, что выпустить джинна из бутылки. Это похоже на волшебного джинна, который может исполнять желания, за исключением тех случаев, когда они рассказывают истории, которые плохо кончаются для человека, который выпустил джинна из бутылки».