ИИ и экология
Apr. 25th, 2025 12:33 pm![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Еще один семинар на конференции в Бостоне был посвящен экологической стоимости всей этой цифровой роскоши в целом, и ИИ в частности. Впечатлило.
Энергия
До 2018 года потребление всеми дата-центрами США было более-менее стабильным. Количество центров, понятно, росло, но росла и энергоэффективность. С 2018 года пошел резкий рост, и к 2023-му потребление выросло вдвое, и на тот момент составляло 4.4 % от всего производства энергии в США. По усредненному прогнозу, к 2028-му году оно дойдет до примерно 10% (притом, что и само производство на тот момент тоже вырастет, т.е. в ГВт рост будет почти втрое).
Источник: 2024 United States Data Center Energy Usage Report
Конечно, это дата-центры в целом. Теперь конкретно про ИИ, и в тоннах СО2.
Тренировка модели GPT-3 потребовала около 552 тонн СО2. Для сравнения: одна тонна - это сжигание 500 л. бензина. Примерно как наш годовой пробег в США.
Источник: David Patterson at al., Carbon Emissions and Large Neural Network Training
Нет точного ответа на вопрос, что потребляет больше энергии и вызывает больший карбоновый след - тренировка модели или ее последующая работа, поскольку это зависит как от количества запросов, так и от частоты апдейтов модели. Если модель не обновлять, соотношение будет примерно 1:2, т.е. запросы к модели генерируют больше выбросов. С учетом обновления моделей, доли примерно сравнимые.
Генерация картинки требует примерно в 60 раз больше энергии, чем генерация текста по запросу.
Источник
И, наконец, вода. Предполагается, что весь мировой ИИ будет в 2027 году потреблять 4.2-6.6 млрд. куб.м. воды, что в 4 раза больше того, что потребляет такая страна как Дания.
Источник: Pengfei Li et al., Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models
Я не думаю, что ИИ - зло. Зло, понятное дело - это люди ). Но знание о стоимости этого ИИ (не в абстрактных зелененьких бумажках, а в конкретных литрах воды) дает более полную картину, чем была у меня раньше.
Энергия
До 2018 года потребление всеми дата-центрами США было более-менее стабильным. Количество центров, понятно, росло, но росла и энергоэффективность. С 2018 года пошел резкий рост, и к 2023-му потребление выросло вдвое, и на тот момент составляло 4.4 % от всего производства энергии в США. По усредненному прогнозу, к 2028-му году оно дойдет до примерно 10% (притом, что и само производство на тот момент тоже вырастет, т.е. в ГВт рост будет почти втрое).
Источник: 2024 United States Data Center Energy Usage Report
Конечно, это дата-центры в целом. Теперь конкретно про ИИ, и в тоннах СО2.
Тренировка модели GPT-3 потребовала около 552 тонн СО2. Для сравнения: одна тонна - это сжигание 500 л. бензина. Примерно как наш годовой пробег в США.
Источник: David Patterson at al., Carbon Emissions and Large Neural Network Training
Нет точного ответа на вопрос, что потребляет больше энергии и вызывает больший карбоновый след - тренировка модели или ее последующая работа, поскольку это зависит как от количества запросов, так и от частоты апдейтов модели. Если модель не обновлять, соотношение будет примерно 1:2, т.е. запросы к модели генерируют больше выбросов. С учетом обновления моделей, доли примерно сравнимые.
Генерация картинки требует примерно в 60 раз больше энергии, чем генерация текста по запросу.
Источник
И, наконец, вода. Предполагается, что весь мировой ИИ будет в 2027 году потреблять 4.2-6.6 млрд. куб.м. воды, что в 4 раза больше того, что потребляет такая страна как Дания.
Источник: Pengfei Li et al., Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models
Я не думаю, что ИИ - зло. Зло, понятное дело - это люди ). Но знание о стоимости этого ИИ (не в абстрактных зелененьких бумажках, а в конкретных литрах воды) дает более полную картину, чем была у меня раньше.