Пока вы спорили про «импортозамещение», ребята с Reddit сделали $120M ARR на AI-облаке. Просто потому что дали инженерам нормальные GPU по человеческой цене и без корпоративного цирка.
Runpod — это стартап, который родился с поста на Reddit и за пару лет дорос до $120 млн годовой выручки на облаке для ИИ. Никаких «инновационных метавселенных», просто удобный доступ к GPU, нормальная биллинг-модель и продукт, который вырос из боли разработчиков. Честно? Я в шоке не от суммы, а от скорости — «сделал пост, прилетели первые юзеры, выкрутили до платформы», как будто так и надо. В России это звучит почти как фантастика: у нас пока вы KPI по импортозамещению согласуете, там уже новый датацентр под AI поднимают.
Что это значит для автоматизации в России: вся эта история про Runpod — прямой удар по иллюзии, что «облако для ИИ — это дорого и долго». Они показали, что можно собрать AI-инфраструктуру вокруг задач разработчиков, а не вокруг совещаний. Для западных команд Runpod стал таким Make.com, только для GPU — зашли, подняли окружение, прикрутили модели, поехали. А вы в это время воюете с кривой панелью в отечественном облаке и SLA на 40 страниц, где полчаса простоя — «форс-мажор».
Знаете, что меня бесит в этой новости? Там человек пишет пост на Reddit, через пару дней у него очередь из ML-инженеров, а у нас команда внедрения три недели согласует доступ к тестовому стенду. В 2 ночи открываю эту статью — у меня в этот момент клиент пишет, что n8n лег, потому что провайдер внезапно решил «провести техработы». Это не баг, нет, скорее фича, которую никто не просил. На фоне Runpod наши «облака для ИИ» выглядят как арендованный офис в бизнес-центре класcа B- с админом дядей Колей.
С одной стороны, круто: рынок AI-инфраструктуры реально взрывается, и это валидирует сам спрос — «это означает, что облако под ИИ больше не ниша гиков». С другой — я три года смотрю, как у российских команд проекты по ИИ упираются не в модели, а в инфраструктуру и 152-ФЗ. Пока там стартапы печатают ARR, у нас юристы блокируют использование внешних GPU под предлогом «персональные данные». Для многих компаний выбор сейчас простой: либо делать суррогат ИИ на слабом железе и жить с этим, либо строить свой маленький Runpod в периметре. И вот тут начинается самое интересное и болезненное.
Моя позиция простая: если у вас AI уже в проде (рекомендательные системы, скоринг, генерация текстов или картинок под бизнес-процессы) — вам срочно думать об инфраструктуре как о продукте, а не как о расходнике. «Для российских команд это сигнал: перестать думать категориями серверов, начать думать категориями сервисов». Банки, телекоми, крупный ecom — вам нельзя ждать, пока кто-то сделает «русский Runpod» и принесет на блюдечке. Среднему бизнесу и интеграторам, наоборот, лучше не прыгать в самопальный GPU-кластер без понимания, как вы это согласуете с безопасностью и РКН.
Где риски: хайп вокруг AI-облаков сейчас будет рожать много красивых, но опасных полу-решений. Вас будут звать «арендовать GPU для ИИ» по цене MacBook в месяц, с нулевой прозрачностью, где стоят сервера и что с данными. Я уже видела, как похожий кейс у клиента рухнул — провайдер внезапно «переехал» и потерял часть данных, а договор был написан так, что им за это ничего. Если вы сейчас строите AI-продукты — заведите себе человека, который отвечает именно за инфраструктуру под ИИ и может сказать «нет, вот это мы не трогаем, даже если дешево».
Вопрос к вам: вы вообще знаете, на каком железе крутится ваш ИИ и кто в реальности его админит? Потому что пока одни строят свой Runpod на коленке, другие уже тихо перекладывают весь риск по инфраструктуре на заказчика, заворачивая это в модные слова про «суверенную платформу». Мне страшно не от $120M ARR, а от того, сколько российских команд осознают свой технический долг только тогда, когда ИИ начнет падать в проде каждый понедельник.
Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.