Социальная и экологическая цена бума ИИ
|
|
В мейнстримных разговорах об искусственном интеллекте (ИИ) преобладали несколько ключевых вопросов, например, уничтожит ли нас сверхразумный ИИ или лишит ли ИИ нас рабочих мест. Но мы уделяли меньше внимания различным другим экологическим и социальным последствиям нашего «потребления» ИИ, которые, возможно, не менее важны. Все, что мы потребляем, связано с «внешними эффектами» — косвенными последствиями нашего потребления. Например, промышленное загрязнение является хорошо известным внешним фактором, оказывающим негативное воздействие на людей и окружающую среду. Онлайн-сервисы, которыми мы ежедневно пользуемся, также имеют внешние эффекты, но, похоже, уровень осведомленности общественности о них гораздо ниже. Учитывая массовое использование ИИ, нельзя упускать из виду эти факторы.
|
|
В 2019 году французский аналитический центр The Shift Project подсчитал, что использование цифровых технологий производит больше выбросов углерода, чем авиационная промышленность. И хотя в настоящее время, по оценкам, доля ИИ в общем объеме выбросов углерода составляет менее 1%, по прогнозам, к 2030 году размер рынка ИИ вырастет в девять раз. Такие инструменты, как ChatGPT, построены на передовых вычислительных системах, называемых большими языковыми моделями (LLM). Хотя мы получаем доступ к этим моделям в Интернете, они выполняются и обучаются в физических центрах обработки данных по всему миру, которые потребляют значительные ресурсы. В прошлом году компания Hugging Face, занимающаяся искусственным интеллектом, опубликовала оценку углеродного следа своего собственного LLM под названием BLOOM (модель такой же сложности, что и GPT-3 OpenAI).
|
|
С учетом влияния добычи сырья, производства, обучения, развертывания и утилизации по окончании срока службы, разработка и использование модели привели к эквиваленту 60 рейсов из Нью-Йорка в Лондон. Hugging Face также подсчитал, что жизненный цикл GPT-3 приведет к увеличению выбросов в десять раз, поскольку центры обработки данных, питающие его, работают в более углеродоемкой сети. Это без учета воздействия сырья, производства и утилизации, связанного с GPT-3. Ходят слухи, что последнее предложение OpenAI LLM, GPT-4, имеет триллионы параметров и потенциально гораздо большее энергопотребление. Помимо этого, для запуска моделей ИИ требуется большое количество воды. Центры обработки данных используют водонапорные башни для охлаждения локальных серверов, где обучаются и развертываются модели ИИ. Google недавно подвергся критике за планы построить новый центр обработки данных в пострадавшем от засухи Уругвае, который будет использовать 7,6 млн литров воды каждый день для охлаждения своих серверов, по данным Министерства окружающей среды страны (хотя министр промышленности оспаривает цифры). ). Вода также необходима для выработки электроэнергии, используемой для работы центров обработки данных.
|
|
В препринте, опубликованном в этом году, Пэнфэй Ли и его коллеги представили методологию измерения водного следа моделей ИИ. Они сделали это в ответ на отсутствие прозрачности в том, как компании оценивают водный след, связанный с использованием и обучением ИИ. По их оценкам, для подготовки ГПТ-3 требовалось от 210 000 до 700 000 литров воды (эквивалент того, что используется для производства от 300 до 1000 автомобилей). По оценкам, для разговора с 20–50 вопросами ChatGPT «выпивает» эквивалент 500-миллилитровой бутылки воды. LLM часто нуждаются в интенсивном человеческом участии на этапе обучения. Обычно это передается на аутсорсинг независимым подрядчикам, которые сталкиваются с нестандартными условиями труда в странах с низким уровнем дохода, что приводит к критике в адрес «цифровой потогонной мастерской». В январе Time сообщила о том, как кенийские рабочие, нанятые для маркировки текстовых данных для обнаружения «токсичности» ChatGPT, получали менее 2 долларов США в час при просмотре откровенного и травмирующего контента.
|
|
LLM также можно использовать для создания фейковых новостей и пропаганды. Оставленный без внимания, ИИ может использоваться для манипулирования общественным мнением и, как следствие, может подорвать демократические процессы. В ходе недавнего эксперимента исследователи из Стэнфордского университета обнаружили, что сообщения, генерируемые ИИ, постоянно убеждали читателей по таким актуальным вопросам, как налоги на выбросы углерода и запрет штурмового оружия. Не все смогут адаптироваться к буму ИИ. Широкомасштабное внедрение ИИ может усугубить глобальное имущественное неравенство. Это не только приведет к значительным сбоям на рынке труда, но и может привести к маргинализации работников определенного происхождения и в определенных отраслях. То, как ИИ повлияет на нас с течением времени, будет зависеть от множества факторов. Будущие модели генеративного ИИ могут быть спроектированы так, чтобы потреблять значительно меньше энергии, но трудно сказать, будут ли они такими.
|
|
Когда дело доходит до центров обработки данных, расположение центров, тип используемой ими выработки электроэнергии и время суток, в которое они используются, могут существенно повлиять на их общее потребление энергии и воды. Оптимизация этих вычислительных ресурсов может привести к значительному сокращению. Такие компании, как Google, Hugging Face и Microsoft, отстаивают роль своих ИИ и облачных сервисов в управлении использованием ресурсов для повышения эффективности. Кроме того, как прямые или косвенные потребители услуг ИИ, важно, чтобы мы все осознавали, что каждый запрос чат-бота и генерация изображений приводят к использованию воды и энергии и могут иметь последствия для человеческого труда. Растущая популярность ИИ может в конечном итоге спровоцировать разработку стандартов и сертификатов устойчивого развития.
|
|
Это поможет пользователям понять и сравнить влияние конкретных сервисов ИИ, что позволит им выбрать те из них, которые были сертифицированы. Это будет похоже на Пакт о климатически нейтральных центрах обработки данных, согласно которому европейские операторы центров обработки данных согласились сделать центры обработки данных климатически нейтральными к 2030 году. Правительства также будут играть свою роль. Европейский парламент одобрил законопроект, направленный на снижение рисков использования ИИ. А ранее в этом году Сенат США заслушал показания ряда экспертов о том, как можно эффективно регулировать ИИ и минимизировать его вред. Китай также опубликовал правила использования генеративного ИИ, требующие оценки безопасности продуктов, предлагающих услуги населению.
|
|
Источник
|