Энергоинфраструктура AI: как компании реагируют на новые требования

Энергоинфраструктура AI: как компании реагируют на новые требования

Я три раза перечитала и не поверила: техгигантов в США фактически заставляют купить электростанции на 15 млрд долларов, которые им могут даже не понадобиться. Белый дом хочет, чтобы PJM провёл аукцион мощности, а крупные IT-компании выкупили генерацию, лишь бы сгладить рост цен на электричество.

Перевожу с бюрократического на людской: государство смотрит на дата-центры и говорит — раз у вас ИИ и серверы жрут много электричества, будьте добры, профинансируйте новые электростанции. Не потому что вы хотите, а потому что сеть надо спасать. Там это подают как заботу о стабильности рынка и снижении цен для всех, но по факту это попытка переложить инфраструктурный риск на Big Tech. Особенно пикантно, что эти мощности могут простаивать — просто резерв «на всякий случай».

Сижу в два ночи, читаю это и думаю про российские команды, которые вшивают ИИ в свои продукты. В США обсуждают, как техкомпании будут покупать power plants, а у нас вы ищете, где арендовать стойку под RTX и как не вылететь по 152-ФЗ. Разрыв реальностей, но тренд один: AI перестаёт быть про «крутой софт» и становится про «а у вас вообще есть электричество, сеть, дата-центр, юристы?». На Западе это уже на уровне правительства, у нас это пока тихо падает на голову ИТ-директоров.

Знаете, что меня бесит в этой новости? Все будут обсуждать Tramp, политику, рынок энергии, а истинный вывод в другом: ИИ-системы стали настолько прожорливы, что государства начали целенаправленно двигать инфраструктуру под них. И если американским корпорациям хотя бы дают механизм — аукцион, рынок мощности, — то в России это означает, что вы сами себе «маленький PJM». И да, это не баг, нет, скорее фича, которую никто не просил.

Моя позиция простая: если вы делаете серьёзный AI-проект в России — финансовый, промышленный, медицину, госсектор — вам уже сегодня надо думать не про «какую модель взять», а про энергетику и физическую инфраструктуру. «Это означает, что AI-проект без плана по мощности — мина замедленного действия». С одной стороны, круто: мир, где техкомпании покупают электростанции, подтверждает — ИИ не схлопнется через год. С другой — я помню, как похожий кейс у клиента рухнул только потому, что провайдер не вывез по электричеству и охлаждению, а проект был завязан на одном ЦОД.

Для российских команд это практический смысл: закладывать в бюджет не только лицензии и разработку, но и резервные площадки, энергоаудит, нормальный расчёт нагрузки от моделей. Если вы строите внутренний GPT для компании на 5-10 тысяч пользователей — считайте, где он физически крутится, что будет при пике, кто платит за дополнительные киловатты. А вот маленьким проектам, которые живут на арендованном inference в облаке, я бы пока подождала с мегаломанией — не надо пытаться «строить свой дата-центр», пока рынок вокруг вас шатается.

Честно? Я в шоке не от Трампа, а от того, как быстро ИИ превратился из «игрушки продакта» в вопрос энергетической политики. Вопрос к вам: вы в своих планах по AI вообще закладываете, где возьмёте ресурсы, если usage вырастет в 5 раз за полгода? Или все надеются, что облако само как-то разрулит, а вы просто докупите чуть-чуть GPU по подписке.

Читать оригинал новости →

Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.

Метки: , , ,