Этого я боялась последние полгода — ИИ официально лезет в медицину. OpenAI уже купил health-стартап Torch, Anthropic выкатил Claude for Health, а ещё один проект с голосовым AI в здравоохранении поднял 250 млн на сид-раунде. Это не просто новости из Штатов, это знак: рынок медицины сейчас станет главным полигоном для ИИ.
Смотрите, что происходит: OpenAI не просто делает очередной API, он покупает готовый медстартап. Это значит — они хотят залезть глубже в реальные процессы, данные пациентов, врачебные протоколы. Anthropic запускает Claude for Health — отдельную линию под медицину, не общий чатик, а заточенный под клиники и исследования инструмент. Параллельно Sam Altman поддерживает Merge Labs — голосовой AI для здоровья, 250 млн на старте, оценка 850 млн, это уровень «мы не поиграться вышли». Я вечером открыла ссылку, а n8n завис на фоне — и у меня чёткое ощущение, что эпоха «поставили бота на сайт и радуемся» заканчивается.
Что это означает для автоматизаторов в России: любой проект по медицине без стратегии по ИИ через год будет выглядеть как районная поликлиника на фоне частного центра. Диагностика, триаж, голосовые ассистенты для врачей, разбор МРТ и КТ — всё это будут не презентации, а рутинные фичи в продуктах. Но у нас своё весёлое шоу — 152-ФЗ, локализация, отсутствие прямого доступа к этим же Torch и Claude for Health. Пока там тестируют «AI, который шепчет доктору на ухо», здесь вы будете объяснять юристу, почему запрос в внешний LLM — это не утечка персональных данных, хотя выглядит ровно так.
Знаете, что меня бесит в этой новости? Все кричат «прорыв в healthcare», а я вижу три красных флага. Первое — безопасность данных, особенно медицинских. Как только ИИ попадает в контур диагностики, любая галочка в настройках логирования превращается в потенциальный скандал на весь регион. Второе — иллюзия, что «там уже всё сделали, давайте просто прикрутим API». В России это работает иначе: без отдельного контура, on-prem или хотя бы чёткой анонимизации вы просто кладёте бизнес под контроль Роскомнадзора. Третье — хайп вокруг голосового AI: все хотят ассистента, который сам пишет карточки пациента, а потом оказывается, что врач 30% времени тратит на проверку косяков ассистента.
Моя позиция простая: если вы в частной медицине, DTC-сервисах, телемедицине — вам вчера надо было собирать команду по ИИ. Не ждать, когда «станет ясно по регулированию», а пилить пилоты хотя бы на внутренних данных и локальных моделях. Для российских команд это практический смысл: вы не можете конкурировать с OpenAI по технологиям, но вы можете конкурировать глубиной внедрения, адаптацией под реальные клиники и требования регулятора. Если вы из госсектора или крупной сети — не бегите сразу в прод, начните с ассистентов для врачей, разборов документов, автоматизации выписок, это безопаснее и понятнее. Это не баг, нет, скорее фича, которую никто не просил: мир перескакивает через стадию «разберёмся» и сразу идёт в «делаем медицинский ИИ в продакшене», а вам придётся быть теми скучными людьми, которые тормозят и проверяют риски.
С другой стороны, я три года наблюдаю, как в России валятся проекты «ИИ в медицине» ровно на двух вещах: отсутствие продукта и страх юристов. Сейчас окно возможностей открывается заново. Если вы интегратор или продуктовая команда — берите эти кейсы OpenAI и Anthropic как методичку: что они автоматизируют, как формулируют ценность, какие роли врача вообще не трогают. Если вы руководите клиникой — у вас есть полгода, чтобы хотя бы понять, в какой части процессов ИИ вам не опасен, а где прям табу до появления внятных правил.
Я не знаю, радует это или пугает, но медицина становится витриной ИИ. Не маркетинг, не CRM, а именно здоровье. Вы готовы, что через год пациент в России будет спрашивать: «А у вас есть AI-ассистент врача или вы живёте как в 2015?»
Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.