Сегодняшний мир всё больше полагается на ChatGPT технологии, которые помогают нам решать повседневные задачи — от написания коротких писем до сложных аналитических запросов. Однако за каждой такой задачей стоит невидимая плата, о которой многие не задумываются. Одна из таких скрытых трат — это вода, которую потребляют дата-центры для поддержания работы ИИ-ботов, таких как ChatGPT.
Каждый запрос, отправленный ChatGPT, требует обработки на мощных серверах, которые генерируют огромное количество тепла. Для охлаждения этих серверов необходимы сложные системы, где в ход идет не только электроэнергия, но и вода. Интересно, что даже самый простой запрос — например, генерация текста на 100 слов — требует около 500 мл воды для охлаждения серверов, где обрабатывается запрос.
Что это значит в более широком контексте?
Допустим, вы пользуетесь ChatGPT раз в неделю на протяжении года, создавая 100-словные запросы. За год это составит примерно 27 литров воды, что сравнимо с содержимым полутора больших кулеров для воды. Но это только один человек. Если возьмем только 10% работающих американцев (около 16 миллионов), которые будут задавать ChatGPT такие запросы с той же частотой, то этот объем увеличится до 435 миллионов литров воды! Это количество эквивалентно тому, что все домохозяйства Род-Айленда потребляют за полтора дня.
Почему так много воды?
Ответ лежит в том, как работают дата-центры. Когда серверы обрабатывают данные, они выделяют тепло. Системы охлаждения должны отводить это тепло, чтобы серверы продолжали функционировать. Один из самых эффективных способов охлаждения — использование воды. Вода циркулирует по специальным системам и отводит тепло из помещений с серверами, затем испаряется или поступает в охлаждающие башни.
Однако в зависимости от местоположения дата-центра ситуация может варьироваться. В регионах с дефицитом воды часто приходится использовать более дорогие и энергозатратные электрические системы охлаждения, которые также увеличивают нагрузку на энергетические ресурсы.
Цена прогресса
С развитием искусственного интеллекта нагрузка на инфраструктуру дата-центров возросла многократно. Например, при обучении моделей, таких как GPT-3, использовалось до 700 тысяч литров воды. Это сопоставимо с производством около 100 килограммов говядины, а для сравнения, средний американец съедает примерно половину этого количества за год.
Большие технологические компании осознают проблему и делают попытки сократить водное потребление, предлагая более экологичные методы охлаждения. Однако пока результаты оставляют желать лучшего. Например, Google, несмотря на заявленные цели, в последнем отчете показал, что смог восполнить только 18% использованной воды.
Что дальше?
Масштабы проблемы огромны, и с ростом использования ИИ эта нагрузка на природные ресурсы будет только увеличиваться. Вопрос в том, насколько быстро технологические компании смогут внедрить более эффективные и экологичные методы охлаждения. Ведь, по мере роста популярности сервисов, таких как ChatGPT, их влияние на окружающую среду становится всё более ощутимым.
На первый взгляд, чатботы кажутся виртуальными помощниками, не требующими физических затрат. Но, как видно, за каждым запросом скрывается внушительная инфраструктура с реальными затратами ресурсов, в том числе воды. Так что в следующий раз, когда вы будете общаться с ИИ, задумайтесь: сколько воды «выпил» ваш запрос?
Ключевые слова: .