Обучение продвинутых моделей ИИ требует времени, денег и высококачественных данных. Это также требует энергии — очень много энергии.
Хранение данных в крупномасштабных дата-центрах и использование этих данных для тренировки моделей искусственного интеллекта выливается в потребление энергии. И хотя система ИИ может окупиться в денежном выражении, с экологической точки зрения ИИ представляет собой проблему .
Возьмем, к примеру, некоторые из самых популярных языковых моделей.
OpenAI обучил свою модель GPT-3 на 45 терабайтах данных. Для обучения финальной версии MegatronLM, языковой модели, похожей на GPT-3, но меньше её, Nvidia задействовала 512 графических процессоров V100 в течение девяти дней.
Один графический процессор V100 может потреблять от 250 до 300 Вт. Если принять 250 Вт, то 512 V100 GPUS потребляет 128 000 Вт или 128 киловатт (кВт). Работа в течение девяти дней означает, что обучение MegatronLM стоит 27 648 киловатт-часов (кВтч).
По данным Управления энергетической информации США, среднее домохозяйство потребляет 10 649 кВт/ч в год. Таким образом, при обучении последней версии MegatronLM использовалось почти столько же энергии, сколько три дома потребляют за год.
Новые методы обучения сокращают объем данных, необходимых для обучения моделей машинного обучения и глубокого обучения, но многим моделям по-прежнему требуется огромный объем данных для завершения начальной фазы обучения и дополнительные данные для поддержания актуальности.
По мере усложнения ИИ можно ожидать, что некоторые модели будут использовать ещё больше данных, а дата-центры сами по себе и так потребляют огромное количество энергии.
IBM Weather Company обрабатывает около 400 терабайт данных в день, для составления прогнозов погоду на несколько дней по всему миру. Facebook генерирует около 4 петабайт (4000 терабайт) данных в день.
В 2020 году люди в всем мире сгенерировали 64,2 зеттабайта данных. то есть примерно 58 389 559 853 терабайт.
По данным аналитического центра Energy Innovation, крупнейшим дата-центрам требуется более 100 мегаватт мощности, чего достаточно для обеспечения электропитанием около 80 000 домашних хозяйств в США.
В мире насчитывается около 600 дата-центров гиперскейлеров (Google, AWS, MS Azure, и пр.), в каждом из которых работают более 5000 серверов на площади более 1000 квадратных метров в каждом. Сколько энергии требуется для хранения всех данных — неизвестно, но это число, вероятно, может поразить воображение.

С экологической точки зрения, потребление энергии дата-центром и средствами искусственного интеллекта в них является настоящим кошмаром.
Выработка электроэнергии для питания дата-центров в тепловых электростанциях создаёт углекислый газ CO2. В атмосфере парниковые газы, такие как CO2, изолируют тепло у поверхности Земли, что вызывает повышение температуры на планете, и это явление известно как «глобальное потепление».
По оценкам аналитиков, к 2035 году люди произведут более 2000 зеттабайт данных, а дата-центры станут одним из самых важных факторов, влияющих на окружающую среду. Однако, сейчас крупнейшие пользователи данных мало что делают для решения проблемы загрязнения углекислым газом или энергопотребления систем ИИ. В общем, можно сделать вывод, что, хотя считается, что цифровизация и цифровая трансформация являются «зелёными» технологиями, однако, это совсем не так.
Аналитики подсчитали, что предприятия обычно не используют 90% данных через 90 дней после их хранения. Однако, все эти данные продолжают храниться в дата-центрах и для их хранения продолжает вырабатываться электроэнергия.
Не использовать ли ИИ для решения этой проблемы, а именно — что хранить из огромных массивов данных, 90% которых не используются по прошествию трёх месяцев, а что — не хранить? Наверняка это хоть в какой-то степени помогло бы решить проблемы значительных выбросов CO2 системами электропитания дата-центров.
(По материалом портала TechTarget).
75% потребления энерги идет на охлаждение датацентров.
Подём распределённой сети датацентров на высотных привязных аэродинамических платформах позволит обеспечить надёжное питание (от энергии высотного ветра) и надежное охлаждение аппаратуры (стабильные -56°C) с прямым доступом в траспортную оптическую сеть с кратчайшим пингом.