Пока вы спали, США тихо подняли ценник на мозг ИИ. Тариф 25% на H200 Nvidia для Китая — и это не про «далеко и нас не касается». Это про то, сколько будет стоить любая серьёзная AI-инфраструктура в мире, а значит, сколько вы заплатите за девопса, inference и «чудо-автопилот» в бизнесе.
Что случилось: администрация Трампа официально врубила 25% тариф на поставки H200 в Китай, оформив это как пошлину на часть полупроводников. То есть не просто ограничения по экспорту, а тупо налог на каждую железку. Nvidia и так режут спецификации для Китая, теперь им сверху прилетает финансовая удавка. Китайские игроки либо будут переплачивать, либо усиленно переезжать на свои или «серые» решения. А глобальный рынок делает вид, что это просто ещё одна новость, хотя это новая планка цен на ИИ-чипы вообще.
Для российских автоматизаторов это означает очень приземлённую вещь: всё, что завязано на западные GPU, будет дорожать и дольше доезжать, даже если вы «работаете только по РФ». Облака перекладывают издержки тихо, без пресс-релизов — проснётесь с новым прайсом на GPU-час. В высоконагруженных проектах с LLM или компьютерным зрением это убивает экономику мелких пилотов: тест «за 50 тысяч» превращается в тест «за 300». И да, это касается даже тех, кто верит, что сидит на локальном A100 в соседнем дата-центре — там тоже не благотворительный фонд.
Бытовой штрих: я открываю ссылку в два ночи, n8n на тестовом сервере как раз падает на очередной попытке запихнуть туда ещё одну LLM-интеграцию. И думаю — это не баг, нет, скорее фича, которую никто не просил. Потому что все гонятся за «самым новым чипом», но забывают, что любая новая санкция, тариф или квота позже прилетит в их смету в рублях. А потом вы спрашиваете, почему внедрение чат-бота на ИИ внезапно стало стоить как пол-отдела продаж.
Честно? Я в шоке от того, как мало людей у нас вообще связывают новости про Nvidia и тарифы с 152-ФЗ и реальными проектами. Все кричат «давайте локальные модели», а я вспоминаю, как у клиента рухнул проект, потому что под него брали GPU в «сером» облаке, которое перестало их получать. Это означает, что если у вас нет сценария B (и C) по железу и облакам, вы просто играете в лотерею. «Для российских команд это прямой сигнал: завязывайте архитектуру на одну-две точки отказа».
С одной стороны, круто, что это подталкивает к развитию своих стэков — от российских GPU до оптимизации моделей. С другой — я три года наблюдаю, как бизнесу обещают «мы всё повесим в облако, вы не почувствуете». Почувствуете, и очень быстро. Тем, кто строит серьёзные AI-сервисы (маркетплейсы, финтех, медицину), срочно нужно: считать TCO с учётом роста цен на чипы, иметь план миграции между облаками и вариант на локальном железе. Тем, кто делает лайтовые истории (аналитика текстов, простые боты), логичнее подождать с «супермоделями на супержелезе» и научиться выжимать максимум из меньших моделей.
Знаете, что меня больше всего бесит в этой новости? Нам опять продают это как большую геополитику, а по факту это про то, как через полгода вы получите счёт за ИИ в 1.5 раза больше и будете винить подрядчика. Если не разбираться в таких историях сейчас, через квартал будет поздно — решения уже примут за вас. Вы уверены, что у ваших проектов есть запас по деньгам и архитектуре, чтобы выдержать ещё один такой «тихий» тариф?
Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.