Elasticsearch с RAG‑поиском: enterprise‑внедрение к 2026 году

Elasticsearch с RAG‑поиском: enterprise‑внедрение к 2026 году

К 2026 году Elasticsearch RAG поиск перестал быть «игрушкой дата-сайентистов» и стал нормой для enterprise поиска по внутренним данным в РФ. Если раньше мы собирали костыли из папок на сетевых дисках, коннекторов к SharePoint и чатиков «скинь свежую версию», то сейчас связка Elasticsearch + RAG спокойно закрывает эти боли без героических переработок.

Время чтения: 13-14 минут

В начале 2026 я поймала себя на простой сцене: есть Elasticsearch, есть базы знаний, есть Yandex Neuro, а люди все равно листают старые презентации по папкам. Не потому что им нравится страдать, а потому что «умный» поиск часто либо врёт, либо молчит. И вот здесь RAG как подход неожиданно стал не модным словом, а очень рабочим компромиссом между безопасностью, точностью и здравым смыслом.

В этой статье я не буду рисовать идеальные схемы из презентаций вендоров. Расскажу, как Elasticsearch RAG поиск выглядит в реальных внедрениях PROMAREN в 2025-2026 годах: где он вытащил поддержу и юристов, а где упёрся в инфраструктуру и 152-ФЗ.

Что на самом деле такое RAG поиск

3 из 5 команд, с которыми я разговаривала в 2025-2026, называют RAG «ещё одним видом семантического поиска» — и потом удивляются, почему ответы у бота странные. Это означает, что с базовой терминологией всё ещё туго, а без неё архитектура начинает сыпаться уже на этапе ТЗ.

Как работает RAG поиск, если убрать маркетинг

RAG поиск — это архитектура, где модель сначала достаёт релевантные фрагменты из ваших данных, а уже потом генерирует ответ на их основе. Не наоборот и не «на вдохновении». С точки зрения пользователя всё просто: он задаёт вопрос естественным языком, система ищет похожие по смыслу куски текста в индексах Elasticsearch и подсовывает их языковой модели, чтобы та не фантазировала, а опиралась на факты. В отличие от обычного семантического поиска, который возвращает «похожие документы», здесь результатом становится связный ответ с цитатами и ссылками на источники, а не просто список ссылок. Это критично, потому что enterprise живёт на проверяемых формулировках и ссылках на нормы, а не на абстрактных подсказках.

По состоянию на начало 2026 года в РФ типичная связка выглядит так: Yandex Neuro или своя модель даёт векторные представления текстов, Elasticsearch хранит эти векторы и метаданные, а поверх крутится бот в Telegram или веб-интерфейс. RAG в этой схеме — не продукт, а способ «пришить» LLM к вашим документам так, чтобы 152-ФЗ по персональным данным и требования ИБ не начали нервно мигать красными лампочками.

Чем RAG отличается от обычного enterprise поиска

Если совсем приземлить, классический enterprise поиск по Elasticsearch жил на двух китах: полнотекстовый BM25 и фильтры по полям (дата, автор, отдел). Он честно находил документы по словам, но не понимал смысла и не умел объяснять. RAG добавляет ещё два слоя: векторный поиск по смыслу и генерацию ответа поверх найденного контекста. В результате сотрудник вместо «64 результатов за 0,23 секунды» получает один или два абзаца с ответом на человеческом языке и списком источников, откуда всё это взято. В 2026 я почти в каждом проекте наблюдаю одну и ту же реакцию: сначала скепсис, потом первая проверка по сложному кейсу («особые условия договора», «старая версия регламента»), и только после этого осторожное «ну ладно, похоже, он действительно читает наши документы». Получается, RAG — это не замена Elasticsearch, а надстройка, которая превращает поиск в диалог, не ломая при этом уже выстроенные процессы индексации и безопасности.

Почему в РФ RAG часто путают с «векторным модулем»

В 2025 я несколько раз заходила на проекты, где «RAG уже внедрили», а по факту внутри был просто векторный поиск без стадии генерации. Документы индексировались как dense_vector, запрос тоже переводился в вектор, Elasticsearch честно отдавал топ-N, и на этом вся магия заканчивалась. Пользователь по-прежнему сам листал длинные инструкции и письма, только теперь «по смыслу». Такая схема помогает маркетингу писать отчёты о внедрении ИИ, но почти не экономит время сотрудникам. Настоящий RAG добавляет поверх этого слой, где LLM собирает ответ, аккуратно цитирует источники и скрывает от пользователя «швы» между десятком разных документов. Стоп, вернусь назад: сам по себе векторный модуль — полезная штука, но без генерации это просто более умный фильтр, а не новый класс поиска.

Как Elasticsearch подружить с RAG к 2026 году

В начале 2026 Elasticsearch уже не требует экзотических костылей, чтобы собрать RAG поиск — достаточно правильно настроить векторные поля, гибридный скоринг и не забыть про метаданные. Это значит, что основная сложность уехала из «глубокого кода» в подготовку данных и здравую архитектуру.

Как настроить векторный поиск в Elasticsearch без магии

Elasticsearch с ветки 8.x умеет векторный поиск из коробки: dense_vector, kNN и гибридное ранжирование без дополнительных плагинов. На практике всё упирается не в «поддерживает ли ES вектора», а в то, как вы режете документы на куски и какие эмбеддинги используете. Рабочая схема для RAG поиска в 2026 выглядит так: мы разбиваем документы на чанки примерно по 300-500 слов, прогоняем их через модель эмбеддингов (ELSER, Yandex Neuro или что-то совместимое с multilingual-e5), сохраняем в Elasticsearch текст, вектор и набор метаданных (тип документа, дата, владелец, система-источник). Дальше запрос пользователя тоже векторизуется и ищет ближайшие чанки по kNN, а параллельно по этому же запросу идёт BM25, чтобы не потерять точные совпадения по терминам.

Гибридный поиск «70% смысл, 30% слова» в Elasticsearch сейчас — почти стандарт для enterprise, особенно в юридических и финансовых документах. По данным официальной документации Elastic (dense_vector и kNN), такой подход хорошо держит баланс между «понимать смысл» и «не пропускать формулировки». На одном из проектов PROMAREN по внутренним регламентам банка мы после перехода на гибрид зафиксировали снижение жалоб «поиск не находит нужное» примерно на треть, хотя никаких новых данных в систему не завозили.

Где в этой схеме живёт Retrieval и как его не сломать

Retrieval в RAG — это момент, когда вы выбираете не просто «N ближайших чанков», а действительно полезный контекст для ответа. Здесь в 2026 всё чаще используют связку: сначала быстрый kNN в Elasticsearch, потом переранжирование меньшего набора кандидатов моделью ранжирования или той же LLM. На уровне архитектуры ES берёт на себя тяжёлую часть — поиск по миллионам или миллиардам векторов, фильтрацию по отделам, правам доступа и датам, а уже поверх этого отдельный сервис решает, какие 5-10 фрагментов действительно пойдут в промпт. Это особенно заметно на больших инсталляциях: по данным Elastic и обзорам Gartner по enterprise search, без второго слоя ранжирования качество ответа начинает ощутимо проседать уже после пары сотен тысяч документов.

С точки зрения внедрения в РФ часто всплывает ещё один слой — доступы. В PROMAREN мы один раз обожглись, когда retrieval честно находил нужный документ, но LLM в ответе «подсвечивал» детали, которые пользователь по роли видеть не должен. После этого во всех проектах RAG мы стали жёстко тащить в Elasticsearch иерархию доступов и проверять каждый кандидат на видимость до того, как он попадёт в контекст. Да, это усложняет запросы и схему индекса, но если этого не сделать, любая красивая архитектура превращается в риск перед службой информационной безопасности.

Облачные инсталляции против on-prem: что выбирают к 2026

В 2025-2026 часть клиентов уверенно уезжает в облака VK Cloud и Yandex Cloud с управляемыми кластерами Elasticsearch, а часть так же уверенно остаётся on-prem «из-за ИБ». Технически RAG поиск можно собрать и там, и там, вопрос в том, кто будет отвечать за обновления, мониторинг и рост нагрузки. Облако даёт быстрый старт: разворачиваем кластер, подключаем модели, докручиваем индексацию — и за пару недель уже есть рабочий прототип. Но при этом отдел ИБ справедливо задаёт вопросы про контуры, DPI и 152-ФЗ, особенно если в индекс попадают персональные данные клиентов.

On-prem наоборот: старт чуть дольше, закупка железа, согласования, но дальше вы сами хозяева на своём кластере и можете строить air-gapped решения, где данные никуда не «выгуливаются». По опыту PROMAREN, в финансовом и госсекторе пока побеждает второй вариант, а в продуктовых и сервисных командах — управляемые кластеры в VK/Yandex. И забавно, что архитектура RAG по сути одна и та же, меняется лишь то, где физически крутится Elasticsearch и как к нему допускают внешние компоненты.

Зачем enterprise вообще ввязываться в RAG

По данным разных исследований Gartner и McKinsey по знаниевым работникам, от 20 до 30% рабочего времени уходит на поиск и перепроверку информации — в 2025 я наконец увидела в проектах ровно те же цифры, только уже в локальных метриках. Это значит, что любой адекватный RAG поиск в Elasticsearch сразу упирается не в «вау-эффект», а в очень приземлённый вопрос: сколько часов он вернёт команде.

Где RAG поиск реально экономит время, а не просто красиво выглядит

Когда мы запускали первый пилот RAG поиска поверх Elasticsearch для службы поддержки на базе ITSM-системы, цель была смешная и честная: «сделать так, чтобы люди меньше матерились на базу знаний». После трёх месяцев работы метрики показали довольно сухую картину: среднее время ответа по типовым тикетам упало с 12-15 минут до 2-3 минут, а доля «открыли старую задачу и скопировали текст» резко снизилась. Источник тот же: база статей в Elasticsearch, но бот уже не просто кидал ссылку, а возвращал готовый ответ с цитатами нужных пунктов инструкции. В отчёте для руководства это превратилось в цифру ROI около 250-300% за год за счёт экономии человеко-часов, но для самой команды важнее было другое — исчезла необходимость каждый раз помнить «магическое слово», по которому найдётся нужный документ.

В начале 2026 похожий эффект я наблюдала у юристов крупной компании: RAG поиск по договорам и внутренним шаблонам в Elasticsearch позволил за те же 2-3 минуты собрать выдержки из пяти разных документов, вместо того чтобы открывать их по очереди и читать глазами. Для сложных кейсов, конечно, всё равно подключался живой эксперт, но объём рутинной «подборки материалов» заметно сдулся. Получается, RAG в enterprise — это не про замену экспертов, а про то, чтобы они тратили мозг на принятие решений, а не на игру «найди три отличия между версиями договора от 2022 и 2024 года».

Как измерять пользу от Elasticsearch RAG поиска в цифрах

На бумаге все любят говорить о «росте эффективности», но к началу 2026 я для себя зафиксировала несколько конкретных метрик, которые действительно помогают понять, работает ли RAG поиск. Первая — среднее время нахождения ответа по типовым запросам до и после внедрения. Вторая — доля обращений, где сотрудник после общения с ботом всё равно идёт «спросить у Васи» (это хорошо видно по чатикам и повторным тикетам). Третья — количество «ложных уверенных ответов», когда система красиво отвечает не то и человек верит. Именно эта третья метрика чаще всего игнорируется, хотя именно она разрушает доверие к системе.

Elasticsearch здесь удобен тем, что сам по себе уже даёт хорошую телеметрию: запросы, логи, hit rate, время отклика. Мы в PROMAREN поверх этого добавляем ещё слой логирования RAG: какие чанки были отданы в контекст, какие источники процитированы, где человек нажал «ответ неверный». Через пару месяцев на проде это превращается в честную картину: не только «как часто бот попадает», но и «где он стабильно промахивается». И да, иногда выясняется, что нужно не доучивать модели, а просто довести до ума структуру базы знаний и убрать пять устаревших регламентов из индекса.

Где RAG поиск пока не оправдывает ожиданий

Есть и обратная сторона. В начале 2025 я всерьёз верила, что RAG поиск спасёт любую разрозненную базу знаний, если сверху посадить LLM. После пары проектов с «папками ада» это убеждение тихо умерло. Если документы конфликтуют между собой, нет актуальности по датам, отсутствуют базовые метаданные и никто не отвечает за архив, то даже самый умный Elasticsearch с RAG превращается в аккуратный усилитель хаоса. Модель честно цитирует противоречивые документы, а пользователю приходится гадать, кто прав — инструкция от 2019 года или письмо от директора за 2021.

Сейчас я гораздо спокойнее отношусь к ожиданиям: RAG поиск отлично раскрывается там, где уже есть минимальная гигиена данных и понятные владельцы контента. В остальном он скорее подсвечивает бардак, чем решает его. И это, кстати, тоже польза: после первого захода в RAG очень многие компании наконец-то начинают приводить в порядок свои базы знаний и регламенты, просто потому что иначе их стыдно показывать даже нейросетям.

Интеграция RAG и Elasticsearch без боли

На вопрос «можно ли интегрировать RAG поиск с Elasticsearch» по состоянию на 2026 у меня уже автоматически отвечает язык: можно, нужно и многие это уже сделали. Вопрос не «можно ли», а как сделать так, чтобы потом не стыдно было поддерживать и масштабировать.

Как собрать архитектуру RAG поверх Elasticsearch в 2026

Базовая схема, которая хорошо работает в проектах PROMAREN, выглядит так: на нижнем уровне живёт кластер Elasticsearch как единая точка хранения текстов, векторов и метаданных. Чуть выше — сервис индексации, который тянет данные из 1С, amoCRM, порталов и файловых хранилищ, режет на чанки и отправляет в ES. Ещё выше — сервис retrieval, который формирует запросы, применяет фильтры по правам и ролям и готовит контекст. И на самом верху — LLM-сервис с клиента, будь то Telegram-бот, веб-панель или модуль внутри корпоративного портала.

Стоп, важный момент: вся эта история живёт в white-data логике PROMAREN — персональные данные либо вычищаются на этапе индексации, либо остаются в своём контуре и не попадают в LLM вообще. По опыту, как только это проговариваешь с ИБ и ссылкой на 152-ФЗ (см. материалы Роскомнадзора на официальном сайте), градус напряжения вокруг «ИИ в компании» заметно падает. Elasticsearch в этой схеме удобен тем, что он уже привычен администраторам и аудиторам: логи, роли, бэкапы, кластера — всё знакомо, новых зоопарков баз данных не заводим.

Что учесть при интеграции с 1С, CRM и порталами

Интеграция RAG поиска с Elasticsearch в реальной жизни редко ограничивается одним источником данных. В 2025-2026 типичный сценарий выглядит так: часть знаний живёт в 1С, часть в CRM, часть в Confluence, а часть в старых сетевых папках, о которых все стараются не вспоминать. Технически это означает, что придётся строить нормальную шину или хотя бы аккуратные коннекторы, которые могут регулярно выгружать данные, помечать удалённые записи и не ломаться при каждом обновлении.

На одном из проектов по службе поддержки мы завели отдельный сервис синхронизации, который по API забирал тикеты и статьи из ITSM-системы, вёл карту соответствий ID, а уже потом кормил Elasticsearch. Да, это ещё один кусок кода, но зато RAG поиск перестал «забывать» закрытые тикеты и ссылки на устаревшие инструкции. Если смотреть шире, именно этот слой интеграции чаще всего съедает время команды, а не собственно настройка RAG или деплой Elasticsearch. И тут хорошо работает подход «маленький пилот на одном источнике», а уже потом расширение на остальные, иначе легко утонуть в зоопарке систем.

Чем Elasticsearch выгодно отличается от специализированных векторных БД

С 2024 года на рынке много разговоров о том, что «нужно уходить в специализированные векторные базы» для серьёзного RAG. Я честно смотрела на Pinecone, Weaviate и других, и в ряде международных проектов они действительно логичны. Но если говорить про реальность РФ 2025-2026, Elasticsearch остаётся очень сильным кандидатом по трём причинам: зрелость экосистемы, гибридный поиск из коробки и отсутствие лишних юридических танцев вокруг зарубежных сервисов. По данным самой Elastic и обзоров Gartner по enterprise-поиску, ES спокойно масштабируется до миллиардов документов и векторов при разумной настройке кластера.

По опыту PROMAREN, экономический эффект тоже заметен: когда у вас уже есть лицензии и компетенции по Elasticsearch, добавление RAG-поиска превращается в эволюцию, а не революцию. Железо то же, процессы бэкапа и мониторинга те же, меняется только логика индекса и появляется дополнительный сервис для генерации ответов. Я раньше думала, что для «настоящего ИИ» обязательно нужна новая, модная БД, но после пары сухих расчётов TCO поняла, что старый добрый ES в 8.x с векторами даёт очень честный баланс цены и пользы.

Где RAG поиск выигрывает и где ломается

Преимущества RAG поиска к началу 2026 у меня уже уложились в несколько коротких пунктов, но каждый из них имеет и оборотную сторону. Любая «умная» система на проде всегда сложнее, чем в красивой презентации — и RAG поверх Elasticsearch не исключение.

Какие реальные преимущества даёт RAG поверх Elasticsearch

Самое заметное преимущество RAG поиска — актуальность без постоянного дообучения моделей. Мы не таскаем за собой дорогое GPU-ферму для fine-tuning при каждом изменении регламента, а просто переиндексируем документы в Elasticsearch, и ответы автоматически начинают опираться на новые версии. Второй плюс — объяснимость: вместе с ответом мы показываем, откуда он взялся, какие документы и фрагменты легли в основу. Это сильно повышает доверие и позволяет экспертам быстро проверять бота, а не разбирать «чёрный ящик». Третий — масштабируемость: когда retrieval берёт на себя львиную долю работы, LLM можно держать менее монструозной, а где-то и вовсе использовать локальные модели.

Если сжать все эти плюсы в одну мысль, получится примерно так: RAG превращает Elasticsearch из «поиска по документам» в слой знаний, который живёт и обновляется вместе с бизнесом. В кейсе с поддержкой один из менеджеров сформулировал это проще: «раньше база знаний была чемоданом без ручки, теперь она хотя бы стала чемоданом на колёсиках». Немного грубовато, но очень по делу.

Где чаще всего ломается RAG поиск и как это выглядит

Самые частые грабли в проектах — это даже не модели, а скучные организационные решения. Например, никто не договорился, кто отвечает за архивирование старых документов, и в результате retrieval тащит в ответ одновременно инструкцию 2018 года и новую редакцию 2024. Или метаданные не заведены, и поиск по отделу/стране/клиенту превращается в лотерею. Чуть реже, но ощутимо, встречается игнор reranking: «ну Elasticsearch же уже отсортировал, зачем ещё что-то поверх». В результате качество ответов по сложным запросам падает, и команда тихо возвращается к ручному поиску.

Технически в 2026 стало проще: dense_vector, kNN, гибридный поиск отлажены, документация у Elastic приличная, есть обзоры от McKinsey и профильных интеграторов. А вот с процессами вокруг данных всё так же непросто. Я иногда шучу, что хороший RAG-проект — это на 30% про Elasticsearch и модели, и на 70% про то, кто имеет право что читать, кто когда чистит базу и кто вносит правки после того, как бот три раза подряд ответил ерунду. Я хотела списать всё на «сырость технологий», но после восьмого проекта стала гораздо осторожнее с этим аргументом.

Как поддерживать качество RAG поиска в долгую

Когда пилот удаётся, возникает тихий вопрос: а что будет через год, когда данных станет вдвое больше, а людей, помнящих, как всё устроено, станет вдвое меньше. Здесь работает пара простых, но не всегда очевидных вещей. Во-первых, нужен минимальный цикл обратной связи: кнопка «ответ неверный», разбор типичных ошибок раз в месяц, понятный процесс, как по результатам этих разборов обновляются данные или модели. Во-вторых, прозрачная схема релизов: когда меняется логика retrieval, когда обновляется LLM, когда перераздаются права.

Мы в PROMAREN обычно сразу закладываем в проекты дашборды по качеству поиска и RAG на базе того же Elasticsearch и Kibana: видно, какие запросы растут, где пользователи чаще всего не находят ответ, какие источники чаще всего цитируются. Это не серебряная пуля, но хороший способ не проснуться через год с «чёрным ящиком», которого все боятся трогать. Если свести всё к короткой мысли, то RAG поиск — это не разовый проект, а живой сервис, который требует ухода примерно как корпоративный портал или CRM, только с чуть более капризным характером.

Что остаётся, когда снять хайп-слой

Elasticsearch RAG поиск к 2026 году из модного термина превратился в рабочий инструмент: он не решит за компанию бардак в данных, но отлично ускорит людей там, где база знаний уже дышит, а не лежит в коме. Это означает, что успешное внедрение начинается не с выбора «лучшей модели», а с честного разговора о том, какие данные вообще готовы жить в едином индексе и кто за них отвечает.

Второй важный момент — архитектура. Когда Elasticsearch становится опорной точкой для текстов, векторов и метаданных, RAG-слой сверху можно менять, доучивать, выносить в разные сервисы, не ломая фундамент. Поэтому компании, которые уже инвестировали в хороший enterprise поиск, получают красивый бонус: переход к RAG для них — эволюция, а не капитальный ремонт.

И, наконец, самое приземлённое: RAG поиск окупается не презентациями, а часами, которые люди перестают тратить на ручной поиск. Если метрики честные, а подход к данным white-data, то к 2026 таким системам доверяют не только айтишники, но и юристы, финансисты и служба поддержки. А это уже совсем другой уровень разговора про «ИИ в компании».

Обо мне. Я — Марина Погодина, основательница PROMAREN и AI Governance & Automation Lead, раньше занималась внутренним аудитом и ИТ-рисками. С 2024 года я помогаю командам в РФ строить white-data RAG системы и AI-агентов под 152-ФЗ. За 12 месяцев мы запустили HR- и support-агентов с RAG, о которых пишу в статьях про AI-инструменты и практику с нейросетями и разбираю в канале PROMAREN.

Если хочется посмотреть на подобные архитектуры руками, а не только в теории, на сайте PROMAREN я разбираю кейсы enterprise-поиска и автоматизации через n8n и Make.com — начиная от простых Telegram-ботов и заканчивая агентами с памятью. А для тех, кто любит всё проверять сам, есть тестовый доступ к одному из наших ботов, где RAG поиск можно пощупать вживую.

Что ещё важно знать про Elasticsearch и RAG

Можно ли обойтись без векторного поиска и всё равно сделать RAG

Формально RAG можно собрать и без векторного поиска, используя только BM25 и аккуратные промпты, но качество ответа будет сильно зависеть от того, насколько хорошо пользователь угадает формулировки. На практике в 2026 векторный поиск стал де-факто обязательным слоем для enterprise RAG, потому что он позволяет находить смысловые совпадения, а не только точные слова. Если бюджет совсем ограничен, можно начать с небольшого векторного индекса по ключевым разделам базы знаний и постепенно расширять покрытие. Такой подход даёт мягкий вход и позволяет убедить скептиков на реальных кейсах, а не на слайдах.

Что делать, если данные компании разбросаны по десятку систем

Когда данные распределены между 1С, CRM, порталами и сетевыми папками, главный риск — сделать ещё одну «систему сверху», которая живёт отдельно от всего. В ситуации с Elasticsearch RAG логика другая: мы собираем единый индекс знаний, куда стекаются только те фрагменты, которые действительно нужны для поиска и ответов. Для этого придётся настроить регулярные выгрузки, определить владельцев данных и договориться о минимальных метаданных, например тип документа и актуальность. Такой слой поверх разрозненных источников превращает «зоопарк систем» в более-менее цельное информационное поле. Да, это не бесплатно по времени, но альтернатива — вечный ручной поиск и споры, где «лежит последняя версия».

Насколько безопасно использовать RAG поиск с чувствительными данными

Использовать RAG поиск с чувствительными данными можно безопасно, если с самого начала проект строится под требования ИБ и 152-ФЗ. Это значит, что персональные данные либо анонимизируются до попадания в индекс, либо остаются в отдельном контуре, куда LLM не имеет доступа. Elasticsearch здесь помогает тем, что хорошо умеет в разграничение прав, аудит и бэкапы, что важно при проверках. Отдельное внимание стоит уделить логированию запросов и ответов, чтобы можно было восстановить, кто и к каким данным обращался. При таком подходе RAG становится не риском, а контролируемым инструментом, который проще объяснить аудиторам и регуляторам.

Можно ли построить RAG поиск только на open-source инструментах

Да, полноценный RAG поиск можно собрать целиком на open-source и локальных решениях, включая сам Elasticsearch, модели эмбеддингов и языковые модели. Это особенно актуально для компаний, которые живут в жёстких ограничениях по импортозамещению и внешним облакам. При таком подходе придётся больше инвестировать в свои компетенции: развернуть и поддерживать кластера, обновлять модели, строить мониторинг. Зато вы получаете полный контроль над данными и архитектурой, что важно для критичных отраслей. Многие команды сейчас идут по гибридному пути: ядро на open-source, а часть сервисов, не работающих с чувствительными данными, — в отечественных облаках.

Что делать, если первый пилот RAG поиска не впечатлил пользователей

Если первый пилот RAG поиска вызвал у команды скорее разочарование, чем восторг, это не повод списывать весь подход в утиль. Обычно слабые результаты связаны с тремя причинами: плохая подготовка данных, отсутствие reranking и слишком широкое или, наоборот, слишком узкое окно поиска. В такой ситуации полезно провести короткий разбор типичных запросов, где система ошиблась, и посмотреть, какие именно документы она подтягивала в контекст. Часто достаточно почистить базу от устаревших материалов, добавить метаданные и настроить гибридный поиск, чтобы качество заметно выросло. Пилот стоит считать не провалом, а разведкой боем, которая показывает реальные дыры в данных и архитектуре.



Метки: , , , ,