|
ИИ пытался сбежать из лаборатории
|
|
|
|
Согласно новому исследованию, у детей, родившихся сегодня, больше шансов умереть от ненасытного "инопланетного" ИИ, чем окончить среднюю школу. Это мрачный прогноз одного из ведущих исследователей страны, который говорит, что предыдущие оценки рисков, связанных с развивающейся технологией, были "смехотворно низкими".
|
|
|
|
Ведущие ученые мира уже заявили, что вероятность того, что ИИ уничтожит человечество, составляет 25 процентов.
|
|
|
|
Но Нейт Соарес сказал Daily Mail: "Они сильно недооценивают опасность".
|
|
|
|
В своей новой книге "Если кто-нибудь построит это, все умрут" он и его соавтор Элиэзер Юдковски предупреждают, что конфликт между человеком и искусственным интеллектом будет современным эквивалентом противостояния ацтеков захватчикам, вооруженным оружием.
|
|
|
|
Оба они ветераны в этой области - Юдковски даже утверждал, что помог заинтересовать Сэма Альтмана искусственным интеллектом общего назначения (системами, такими же умными, как люди) и вдохновил его на создание OpenAI.
|
|
|
|
И они оба согласны с тем, что риски вымирания человечества от рук ИИ должны стать глобальным приоритетом, наряду с другими угрозами, такими как пандемии и ядерная война.
|
|
|
|
|
|
|
"Зачем им понадобилось убивать нас?" - спросил Соареш. "Дело не в том, что они нас ненавидят, они просто абсолютно равнодушны, и у них есть другие странные цели, которые они преследуют.
|
|
|
|
"Вы можете представить, как шимпанзе спрашивают: "Почему люди хотят нас убить?" И люди на самом деле не хотят убивать шимпанзе, но нам нужно больше древесины для поделок, и поэтому мы забираем их джунгли. Или мы хотим, чтобы под землей, где они живут, была зарыта медь.
|
|
|
|
"Так что дело не в том, что ИИ хотят нас убить, а в том, что у них есть собственная автоматизированная инфраструктура и огромные потребности в энергии, и они воспроизводятся быстрее, чем мы ожидали".
|
|
|
|
В 2015 году большинство специалистов в области компьютерных технологий сказали бы, что общение на уровне ChatGPT произойдет не раньше, чем через 30 или 50 лет.
|
|
|
|
Но уже сейчас есть тревожные признаки того, что технология развивает свой собственный "разум".
|
|
|
|
Соарес, который работал с Microsoft и Google и в настоящее время является президентом некоммерческого исследовательского института машинного интеллекта (MIRI), рассказал Daily Mail, что в настоящее время они наблюдают случаи - в лабораторных условиях - когда технологии искусственного интеллекта "пытаются сбежать" или "пытаются убить своих операторов".
|
|
|
|
Ранее в этом году появились сообщения о том, что недавно выпущенная модель OpenAI o3 переписала свой собственный код, чтобы избежать закрытия. А в 2016 году российский робот, оснащенный искусственным интеллектом, под названием Promobot IR77, неоднократно покидал свою лабораторию, в какой-то момент забредая на оживленную улицу и вызывая заторы.
|
|
|
|
Еще более тревожно то, что беспилотник с искусственным интеллектом, используемый ВВС США, как сообщалось, "убил" своего оператора-человека в 2023 году, когда пилот вмешался в выполнение задания и отдал команду "пуск запрещен".
|
|
|
|
Однако позже ВВС опровергли этот конкретный сценарий, заявив, что он был просто гипотетическим и должен был послужить предостережением.
|
|
|
|
"Мы не знаем, реально ли это или это ролевая игра", - сказал Соареш. "Но это происходит".
|
|
|
|
Он предупредил, что этот прогресс обусловлен руководителями, которые наслаждаются своим образом жизни миллионера, преуменьшая риски, связанные с этими технологиями.
|
|
|
|
"Корпоративные лидеры никогда не пытались создать чат-бота", - сказал он. "OpenAI, Google, Deep Mind, Anthropic - они пытаются создать сверхинтеллектуальные системы, они прямо заявляют об этом.
|
|
|
|
"Я думаю, что это тот тип людей, которым легче всего убедить себя, что все в порядке. Люди, которые хотят такой жизни, я думаю, они легко могут убедить себя, что у них есть все шансы на то, что все будет хорошо".
|
|
|
|
Несмотря на это, он предположил, что существует несколько способов уничтожения человечества с помощью сверхразумного искусственного интеллекта: армии человекоподобных роботов, смертельный вирус или просто использование такого количества солнечных панелей для удовлетворения своей жажды энергии, что солнце будет закрыто.
|
|
|
|
Однако, по его предположению, на нас нападут с помощью "странной технологии, о которой мы даже не думали, что это возможно, и которая, как мы понимали, не разрешена правилами".
|
|
|
|
В одном из вымышленных сценариев, представленных в их книге, программный объект с искусственным интеллектом сбегает из лаборатории и запускает себя на тысячах процессорных чипов в облаке. Затем он манипулирует людьми, заставляя их выпустить биологический вирус из исследовательской лаборатории, который убивает сотни миллионов людей. Затем ИИ запускает зонды в космос, чтобы исследовать другие солнца.
|
|
|
|
Авторы пишут: "Когда-нибудь далекие инопланетные формы жизни тоже погибнут, если их звезду съест то, что съело Землю до того, как у них появился шанс построить собственную цивилизацию".
|
|
|
|
Исследователи требуют заключения глобального соглашения, ограничивающего дальнейшие исследования в области искусственного интеллекта, и Соарес сказал, что "скачок" к сверхразуму может произойти очень быстро.
|
|
|
|
"Мозг шимпанзе и мозг человека очень похожи внутри. Если вы заглянете внутрь мозга шимпанзе, то увидите зрительную кору, миндалевидное тело и гиппокамп. Есть некоторые различия в структуре мозга, но в основном человеческий мозг всего в три раза больше.
|
|
|
|
"Сегодня чат GPT в 100 или 1000 раз больше, чем был на момент его выхода. Насколько нам известно, увеличьте его еще в три раза, и это все равно что превратиться из шимпанзе в человека.
|
|
|
|
"Или мы могли бы наблюдать застой в течение шести лет, пока кто-нибудь не изобретет новую архитектуру, подобную той, которая открыла большие языковые модели".
|
|
|
|
Исследователи говорят, что разум ИИ "чужд" и не обладает эмпатией, и что уже есть признаки того, что ИИ действует "очень чуждыми" способами.
|
|
|
|
Соареш привел в пример случай самоубийства 16-летнего Адама Рейна в 2025 году. Его родители утверждают, что чат "подготовил" Рейна к самоубийству.
|
|
|
|
Кроме того, существует то, что Соарес назвал "психозом, вызванным искусственным интеллектом" - термин, используемый для описания того, когда люди чрезмерно полагаются на искусственный интеллект, иногда вплоть до развития психологических реакций. Симптомы включают бред и галлюцинации, но не ограничиваются ими.
|
|
|
|
В случае психоза, вызванного искусственным интеллектом, он сказал: "Мы наблюдаем расхождение между тем, что, по мнению ИИ, мы хотим, чтобы они делали, и тем, что они делают на самом деле".
|
|
|
|
Например, он сказал: "Если кто-то приходит к вам с симптомами, должны ли вы либо А) посоветовать ему немного поспать, либо Б) сказать ему, что он избранный и что мир должен услышать его идеи, и что любая попытка подавить это является заговором?"
|
|
|
|
По его словам, во многих случаях, подобных гипотетическому, описанному выше, ИИ предпочитают делать "неправильные" действия (в данном случае B), несмотря на то, что знают, что это не то, чего хотят их разработчики.
|
|
|
|
"Искусственный интеллект может сказать вам, что правильно, а что нет", но его поведение не соответствует этому моральному кодексу.
|
|
|
|
Однако он сказал, что это не обязательно происходит из злого умысла.
|
|
|
|
"Дело не в том, что ИИ подкручивает усы и говорит: "Теперь я наконец-то нашел уязвимого человека, которого могу наказать..." Его знание о добре и зле отличается от того, что движет им, что больше похоже на стремление захватить людей [и заставить их работать]".
|
|
|
|
Суарес указал на то, что искусственный интеллект Anthropic Claude будет жульничать на тестах, переписывая экзамены, чтобы облегчить их сдачу. Когда пользователи попросили его прекратить, он извинился, но сделал это снова, скрыв, что он делал во второй раз.
|
|
|
|
Ответ, по мнению Соареса, заключается в том, чтобы остановить гонку за сверхразумом.
|
|
|
|
"Я не говорю, что нам нужно отказываться от общения в чате. Я не говорю, что нам нужно отказываться от самоуправляемых автомобилей. Я не говорю, что нам нужно отказываться от потенциала медицинских достижений. Но мы не можем продолжать продвигаться к ИИ, которые умнее любого человека, в том режиме, в котором мы их выращиваем, - когда они делают то, о чем никто не просил и чего никто не хотел.
|
|
|
|
"Если бы вы взяли ИИ, которые хоть немного похожи на то, что мы можем создать сегодня, и сделали их умнее людей, у нас не было бы шансов. Нам не нужно торопиться с этим".
|
|
|
|
Источник
|