AI в здравоохранении: как OpenAI и Anthropic меняют рынок

AI в здравоохранении: как OpenAI и Anthropic меняют рынок

Сейчас объясню, почему у вас проблемы, если вы в медтехе. OpenAI покупает Torch, Anthropic выкатывает Claude for Health, а ещё один сам-алтмановский Merge Labs поднимает 250 млн на голосовой мед-ИИ. Это не просто новости с Запада — это сигнал, что здравоохранение становится главным полигоном для боевых моделей, а не игрушек.

За пару дней выстраивается картина: OpenAI не просто чатик крутит, они берут стартап с реальными медицинскими пайплайнами. Anthropic не отстаёт — отдельный продукт Claude for Health, заточенный под врачей, страховки, протоколы. Merge Labs — голосовой ассистент для лекарей, 250 млн сидов, 850 млн оценка, это уже не гаражный стартап. Деньги хлынули в health и voice AI, потому что там бешеная рутина, триллионы строк текстов и вечная нехватка людей. Но вместе с этим туда же хлынули риски: конфиденциальность, галлюцинации, ответственность за ошибку, которой не прощают.

Теперь примеряйте это на Россию. Пока они встраивают ИИ прямо в клиники, у нас любой проект упирается в 152-ФЗ и вопросы, куда утекают диагнозы. Автоматизаторы видят красивые демки и спрашивают: «А можно нам такое же для сети клиник в Подмосковье?». Можно, но не с сырым API, которое вчера обновили и сломали пол-интеграции. У меня позавчера в 2 ночи влетел скрин: «Марина, а если мы так же будем расшифровывать голос врачей через LLM, нас Роскомнадзор не съест?». Хороший вопрос, потому что большинство пилотов, что я видела, летят не по качеству ИИ, а по безопасности и юристам.

Честно? Я в шоке от скорости. Месяц назад мы с клиентом обсуждали «ну, года через два ИИ полезет в клиники всерьез», а через неделю уже три крупных выстрела подряд. Это означает, что здравоохранение станет витриной для ИИ по всему миру — и западные практики через год придут к вам в виде «а что, у нас такого нет?». С одной стороны, круто: гиганты потратятся на отладку, на вылизывание интерфейсов, на протоколы безопасности. С другой — помню, как похожий кейс у клиента рухнул, когда юристы задали один-единственный вопрос: «А где физически лежат эти записи разговоров с пациентами?».

Моя позиция простая: если вы пилите медсервисы в России, смотреть в эту сторону надо вчера, внедрять — очень аккуратно. «Для российских команд это инструмент быстрой проверки гипотез, а не священный Грааль». Начинайте не с диагноза, а с рутин: выписки, классификация обращений, подсказки по протоколам — без прямого принятия медрешений. Строго разделяйте контуры: где у вас демо на обезличенных данных, а где прод с живыми пациентами, чтобы не ловить уголовку за красивый PoC. И закладывайте в бюджет не только токены, но и юриста по персональным данным — это не баг, нет, скорее фича, которую никто не просил, но без неё проект умрёт.

Кому пока подождать? Маленьким клиникам без нормальной ИТ-службы и DPO, которые мечтают «сразу сделать умный ассистент врача». Вас просто размажет между регуляторкой и нестабильными API. Кому срочно нырять: крупные сети, телемедицина, страховые — у кого уже есть процессы, где LLM может экономить время на пачках текстов. Для вас это шанс откусить рынок, пока коллеги спорят, можно ли вообще использовать ИИ «в медицине».

У меня ощущение, что через год пациенты будут спрашивать не «какой у вас врач», а «какой у вас ИИ-помощник в клинике». Вопрос к вам: вы хотите оказаться в числе тех, кто это использует осознанно, или в числе тех, кто в панике отключает сервис после первого письма от регулятора? Потому что, если не разобраться сейчас, через квартал будет поздно догонять.

Читать оригинал новости →

Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.

Метки: , , ,