Пока вы спорили, нужен ли вам чат-бот, ИИ уже полез лечить людей. OpenAI покупает медицинский стартап Torch, Anthropic запускает Claude for healthcare, а какой-то MergeLabs поднимает $250 млн сид-раунда с оценкой $850 млн. Это не «где-то там в Кремниевой долине» — это тот момент, когда ваш пациент, сотрудник или страхователь начнёт советоваться с моделью, а не с вами.
Суть новости простая: началась золотая лихорадка AI в медицине. Игроки топ-уровня залезают в healthtech и голосовой ИИ, как в последний поезд. Им нужны данные, сценарии, интеграции с клиниками, телемедициной, страховками, фармой — всё, что монетизируется. Деньги льются водопадом, а вместе с ними льются и обещания: меньше врачебных ошибок, меньше рутины, быстрее диагнозы. И ровно в этот момент в воздухе висит одна фраза: «А если он сейчас соврёт?»
Для российских автоматизаторов это звучит как соблазн и приговор одновременно. С одной стороны, появляются готовые паттерны: мед-боты, ассистенты врача, голосовые триаж-системы, подсказки по МКБ и протоколам. С другой — пока там радуются, нам надо думать про 152-ФЗ, ОМС, локальные регламенты и то, кто вообще возьмет на себя риск, если ИИ порекомендует не то лекарство. Вчера в два ночи коллега кидает мне ссылку: «Смотри, они уже делают то, что просил наш клиент-поликлиника». Я смотрю и думаю — класс, только у нас за такую интеграцию можно прилететь под проверку Росздравнадзора и прокуратуры за компанию.
Знаете, что меня бесит в этой новости? Там все обсуждают «hallucination risks» и inaccurate medical information, как будто это что-то новое. Я три года наблюдаю, как даже внутренние чат-боты в банках и ретейле выдают чушь, а тут люди радостно тащат ту же механику в медицину. Это не баг, нет, скорее фича, которую никто не просил: модели склонны придумывать, а не честно говорить «не знаю». В России это работает иначе — у нас за одно неправильное слово про диагноз в переписке можно словить иск или проверку, и не важно, что это написал «бот».
Все кричат «прорыв», а я вижу три красных флага. Первый — слепое доверие: как только ИИ обвешивают брендом OpenAI или Anthropic, пользователи перестают перепроверять. Второй — регуляторный разрыв: международные решения не заточены под наш 152-ФЗ, хранение медданных на территории РФ и реалии убогих МИС в регионах. Третий — иллюзия экономии: «Поставим ассистента, он заменит половину колл-центра», а потом начинаются претензии от пациентов и страховых, и вы нанимаете юристов вместо операторов. Для российских команд это значит одно: «быть в тренде» нельзя без юр- и техаудита, иначе вы просто играете в рулетку с личными данными.
Кому срочно внедрять? Крупным сетям клиник, телемедицине, страховым с высокой нагрузкой на колл-центр — но только в узких, контролируемых сценариях: напоминания, маршрутизация, объяснение простых процедур, без диагноза и без лечения. Кому подождать — малым клиникам и частным врачам: у вас нет ресурса прикрыть спину, если система ошибётся, да и дата-сеты часто грязные. Самый разумный ход сейчас — строить свою прослойку: локальные модели, on-prem, логирование всех диалогов, ручные проверки выборки, а не «подключили Claude и молимся». «Это означает, что медицинские ИИ-сервисы без юриста и DPO в 2026 будут выглядеть, как клиника без лицензии».
Если вы работаете с медицинскими данными, у вас ровно два пути: либо вы сейчас разбираетесь, как это легально и безопасно внедрить, либо через год будете объяснять, почему ваш конкурент уже продаёт AI-консультации, а вы все ещё упираетесь в Excel и бумажные карты. С одной стороны, круто смотреть на этот хайп. С другой — я слишком хорошо помню, как похожий кейс у клиента рухнул после первой же серьезной жалобы пациента на «совет бота».
Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.