ИИ представляет собой экзистенциальную угрозу человечеству
|
Медицинские эксперты выступили с новым призывом остановить разработку искусственного интеллекта (ИИ), предупредив, что он представляет «экзистенциальную угрозу» для людей. Команда из пяти врачей и экспертов по глобальной политике в области здравоохранения с четырех континентов заявила, что существует три способа, с помощью которых технология может уничтожить людей. Во-первых, это риск того, что ИИ поможет усилить авторитарные тактики, такие как слежка и дезинформация. «Способность ИИ быстро очищать, систематизировать и анализировать массивные наборы данных, состоящие из личных данных, включая изображения, собранные благодаря все более повсеместному присутствию камер», — говорят они, может облегчить авторитарным или тоталитарным режимам приход к власти и сохранение ее. в силе. Во-вторых, группа предупреждает, что ИИ может ускорить массовые убийства за счет расширенного использования смертоносных автономных систем оружия (LAWS). |
И, наконец, эксперты в области здравоохранения выразили беспокойство по поводу возможности серьезного экономического опустошения и человеческих страданий, поскольку неисчислимые миллионы теряют средства к существованию из-за этих трудолюбивых ботов. «Прогнозы скорости и масштабов потери рабочих мест из-за автоматизации на основе ИИ, — говорят авторы, — колеблются от десятков до сотен миллионов в ближайшее десятилетие». Комментарии появились всего через несколько недель после того, как более тысячи ученых, в том числе Джон Хопфилд из Принстона и Рэйчел Брэнсон из «Бюллетеня ученых-атомщиков», подписали письмо с призывом прекратить исследования ИИ из-за аналогичных опасений. Конечно, современные текстовые ресурсы искусственного интеллекта, такие как ChatGPT от OpenAI, не совсем представляют собой апокалиптические угрозы, которые имеют в виду эти специалисты по политике в области здравоохранения. Эксперты во главе с врачом из Международного института глобального здравоохранения Университета Организации Объединенных Наций заявили, что их самые страшные предупреждения относятся к высокоразвитой и все еще теоретической категории искусственного интеллекта: самоулучшающемуся ИИ общего назначения или ОИИ. |
AGI сможет лучше изучать и модифицировать свой собственный код для выполнения широкого круга задач, на которые сегодня способны только люди. В своем комментарии эксперты в области здравоохранения утверждают, что такой ОИИ «теоретически мог бы научиться обходить любые ограничения в своем коде и начать разрабатывать свои собственные цели». «Существуют сценарии, в которых ОИИ может представлять угрозу для людей и, возможно, экзистенциальную угрозу, — писали эксперты, — преднамеренно или непреднамеренно причиняя вред прямо или косвенно, атакуя или подчиняя людей, нарушая работу систем или израсходовав ресурсы, которые мы зависит от.' Хотя такая угроза, вероятно, появится через несколько десятилетий, комментарии экспертов по политике в области здравоохранения, опубликованные сегодня в журнале Британской медицинской ассоциации BMJ Global Health, раскрыли множество возможностей злоупотребления современным уровнем технологий искусственного интеллекта. Описывая угрозы «демократии, свободе и неприкосновенности частной жизни», авторы описали, как правительства и другие крупные учреждения могут автоматизировать сложные задачи массового наблюдения и онлайн-программ цифровой дезинформации для ИИ. |
В первом случае они назвали систему социального кредита Китая одним из примеров государственного инструмента для «контроля и угнетения» населения. «В сочетании с быстро улучшающейся способностью искажать или искажать реальность с помощью дипфейков, — писали авторы в последнем случае, — информационные системы, управляемые ИИ, могут еще больше подорвать демократию, вызывая общий подрыв доверия или провоцируя социальные разногласия и конфликты, с вытекающими последствиями для общественного здравоохранения. Описывая угрозы «миру и общественной безопасности», авторы подробно описали разработку смертоносных автономных систем оружия (LAWS), машин для убийств, таких как эндоскелет Т-800 из фильмов о Терминаторе. По словам этих экспертов, LAWS сможет самостоятельно обнаруживать, выбирать и поражать человеческие цели. «Такое оружие, — пишут они, — можно дешево производить массово и относительно легко настроить для убийства в промышленных масштабах». Например, миллион крошечных дронов, оснащенных взрывчаткой, средствами визуального распознавания и автономной навигации, может содержаться в обычном грузовом контейнере и быть запрограммирован на уничтожение». |
Последняя широкая категория угроз исследователей, «угрозы работе и средствам к существованию», привлекла внимание к вероятности обнищания и нищеты, поскольку «десятки или сотни миллионов» теряют работу из-за «широко распространенного внедрения технологий искусственного интеллекта». «Хотя прекращение монотонной, опасной и неприятной работы принесло бы много пользы, — писали эти медицинские работники, — мы уже знаем, что безработица тесно связана с неблагоприятными последствиями для здоровья и поведением». Возможно, самое тревожное, что почти каждый пятый профессиональный эксперт по искусственному интеллекту, кажется, согласен с ними. Авторы процитировали опрос членов сообщества ИИ, в котором 18% участников заявили, что, по их мнению, развитие продвинутого ОИИ будет экзистенциально катастрофическим для человечества. Половина опрошенных членов сообщества ИИ предсказали, что ОИИ, вероятно, начнет стучаться в нашу дверь где-то между 2040 и 2065 годами. В прошлом месяце исследователи из Силиконовой долины подписали письмо с аналогичными предупреждениями. В их ряды входил основатель DeepAI Кевин Барагона, который сказал DailyMail.com: «Это почти похоже на войну между шимпанзе и людьми. Люди, очевидно, побеждают, поскольку мы намного умнее и можем использовать более продвинутые технологии, чтобы победить их. «Если мы будем как шимпанзе, то ИИ уничтожит нас или мы станем его рабами». |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|