Защита данных AI: 5 мер против утечек через ChatGPT

Защита данных AI: 5 мер против утечек через ChatGPT

Защита данных AI в 2026 — это уже не проект ИБ, а гигиена бизнеса. Пока одни запрещают ChatGPT и YandexGPT, другие молча сливают пароли и базы клиентов в промпты. Я за третий путь: не истерить, а поставить нормальный DLP и спокойно спать.

Время чтения: 12-14 минут

В начале 2026 я поймала себя на знакомой сцене: кабинет, остывший кофе, менеджер аккуратно копирует фрагмент CRM в ChatGPT «просто чтобы красиво переписать письмо». На экране — карта лояльности, телефон, сумма покупок за год. Он искренне удивился, когда я попросила удалить историю.

По опыту PROMAREN, проблема не в ChatGPT как таковом, а в том, что у компаний нет «предохранителя» между людьми и ИИ. DLP-система как раз и играет эту неблагодарную роль — встаёт между сотрудником и его импульсом «быстренько вставить сюда пароль», и это спасает тысячи строк чувствительных данных от прогулки по облаку.

Что такое DLP система и зачем она AI

3 из 5 инцидентов с AI в компаниях в 2025-2026 годах связаны не с хакерами, а с отправкой конфиденциальных данных в модели. DLP система нужна, чтобы такие попытки даже не долетали до ChatGPT и YandexGPT.

DLP система — это набор инструментов, который отслеживает и ограничивает передачу конфиденциальных данных из компании наружу: через браузер, почту, мессенджеры, флешки и всё, что умеет «выносить» информацию. По сути это внимательный контролер, который проверяет каждый «чемоданчик» с данными на выходе — текст, файлы, скриншоты, запросы к облачным сервисам AI.

Как DLP выглядит изнутри компании

Если убрать маркетинговые описания, на практике DLP — это агент на рабочем месте плюс сервер с правилами и отчетами. Агент сидит на ноутбуке сотрудника, перехватывает ввод в браузере, копирование в буфер обмена, загрузку файлов и перед отправкой сверяется с политиками: это обычный текст или кусок клиентской базы, пароль, коммерческая тайна.

В РФ чаще всего вижу решения вроде «СёрчИнформ КИБ», «Гарда DLP», Zecurion: они уже умеют узнавать персональные данные, шаблоны договоров, исходный код. В одном из проектов PROMAREN в ритейле агент просто молча подчеркивал красным попытку отправить ID клиента в YandexGPT и блокировал запрос, а мне потом показывал отчёт — кто, когда и из какого браузера пытался.

Это критично, потому что все персональные данные и чувствительная информация должны по-хорошему оставаться в контуре компании, а не утекать в облачные технологии. Без такого слоя контроля ChatGPT конфиденциальность превращается в веру «ну, наверное, там всё шифруется», а это слабая стратегия, когда на кону утечки данных и 152-ФЗ.

Где DLP соприкасается с AI на практике

Сейчас DLP для AI чаще всего настраивают вокруг трёх зон риска: веб-доступа к ChatGPT/YandexGPT, интегрированных ботов (Slack, Telegram) и загрузки файлов для анализа. Во всех трёх случаях логика одна и та же — агент перехватывает запрос до отправки во внешнюю модель и проверяет его содержимое по правилам.

Например, сотрудник открывает чат с ChatGPT в браузере, выделяет текст из договора и жмет Ctrl+V — агент видит вставку, анализирует на наличие персональных данных и, если находит, либо блокирует, либо просит обосновать отправку. В кейсе с Telegram-ботом для внутреннего поиска по документам мы в PROMAREN добавляли промежуточный слой: расшифровка голосовых сообщений в текст и проверка этим же DLP-политикам.

Получается простая мысль: защита данных AI — это не только про серверы OpenAI или Yandex, это ещё и про то, что именно сотрудники туда несут. От этой точки мы логично переходим к вопросу: как технически DLP вообще понимает, что вы решили отдать ChatGPT не то.

Как работают DLP системы с ChatGPT и YandexGPT

Для защиты данных AI DLP перехватывает трафик к AI-сервисам, анализирует содержимое запросов и блокирует отправку паролей, кода и баз до того, как они улетят в облако. Это не фильтр «где-то в интернете», а локальный сторож прямо на устройстве.

Что делает агент DLP на рабочем месте

По состоянию на начало 2026 DLP-агенты умеют гораздо больше, чем просто «искать номер карты по маске». Они отслеживают ввод в браузерах, анализируют содержимое HTTP(S)-запросов к доменам ChatGPT и YandexGPT, контролируют буфер обмена и попытки загрузки файлов. Deep Packet Inspection позволяет им заглядывать даже в зашифрованный SSL-трафик, расшифруя его на лету внутри контуров компании.

На практике это выглядит скучно и надёжно: сотрудник открывает chat.openai.com, пишет «вот скрипт авторизации в нашей CRM» и вставляет код, а агент в этот момент уже размечает текст по категориям «исходный код», «персональные данные», «коммерческая тайна». Если срабатывают правила, запрос блокируется, сотрудник видит уведомление, а админ — запись в журнале. По данным Netwrix и похожих решений, такой перехват снимает до 80-90% рисков без тотальных запретов.

Как это настраивается под ChatGPT и YandexGPT

Когда я настраивала DLP под ChatGPT в одной из команд, мы начинали не с блокировок, а с «режима наблюдателя»: агент просто логировал, какие данные реально уходят в AI. Через две недели стало видно, где самые частые нарушения — ключевые слова из CRM, внутренние домены, куски SQL. Уже потом из этого родились политики, а не наоборот.

Дальше всё довольно прагматично: добавляем домены chat.openai.com и соответствующие адреса YandexGPT в список контролируемых, включаем для них детальный анализ содержимого, настраиваем категории (исходный код, персональные данные, документы с пометкой «конфиденциально») и действия — от мягкого предупреждения до жёсткой блокировки. По данным Gartner по DLP-системам за 2025 год, такой подход снижает объём инцидентов на 60-70% уже в первый квартал.

Чтобы не превратить работу в кошмар, мы в PROMAREN часто делаем простую матрицу — что можно отправлять в AI, что условно можно с явным согласием, а что под полным запретом. Для ясности она хорошо ложится в табличный формат — иначе сотрудники теряются в формулировках «чувствительная информация».

Тип данных Можно в ChatGPT/YandexGPT Условие
Обезличенные тексты Да Без ФИО, телефонов, ID
Исходный код Ограниченно Только тестовые фрагменты
Персональные данные и пароли Нет Только через внутренние инструменты

Когда сотрудники понимают границы, DLP перестает восприниматься как «карающая система», а становится техническим напоминанием о договорённостях. И вот тут вскрывается следующая тема: почему вообще так страшно, если кусочек базы вдруг оказался в промпте.

Почему утечки данных через AI так больно бьют

По данным отраслевых отчётов 2025 года, средний инцидент утечки данных через AI обходится компании в 3-4 млн руб. с учётом штрафов, расследований и потери репутации. Это не теория, а вполне конкретная строка расходов.

Где именно болит: от 152-ФЗ до репутации

Когда сотрудник копирует в ChatGPT диагноз пациента или список клиентов, он в момент превращает удобный сервис в внешний неконтролируемый хранилище персональных данных. В условиях РФ это значит потенциальные претензии по 152-ФЗ, вопросы от Роскомнадзора и необходимость доказывать, что компания вообще пыталась обеспечить конфиденциальность данных. Подробности требований можно легко проверить в тексте закона на сайтах типа консультант.ру или гаранта, но суть одна — контролировать потоки ПД.

Юридические риски дополняются репутационными: утечки данных примеры вроде истории с Samsung, где инженеры залили фрагменты исходного кода в ChatGPT, разбирались во всех профильных медиа. Даже если штрафы скромные, новость «у компании X утекли клиентские данные через нейросеть» живёт в поиске годами. В 2025-2026 клиенты стали гораздо чувствительнее к таким новостям — особенно в финтехе и медицине.

Истории из практики: одна строка — один кризис

В одном проекте, который ко мне пришёл уже после инцидента, всё началось с желания маркетолога «подчистить» письмо для VIP-клиента через AI. Он скопировал переписку из CRM в веб-версию ChatGPT, попросил переписать «в более тёплом тоне» и отправил. Через пару месяцев служба безопасности обнаружила, что похожие формулировки и имена клиентов всплывают в сторонних промптах — кто-то тестировал, какие ассоциации вызывает фамилия.

Формально доказать, что модель «вспомнила» именно этот конкретный фрагмент, почти невозможно, но компании этого было достаточно, чтобы пересмотреть политику защиты корпоративной информации. В итоге они пришли к DLP и внутреннему ботy на базе YandexGPT с жёсткими ограничениями по данным. Смешно, но после внедрения люди стали писать промпты аккуратнее даже в личных аккаунтах — риск стал слишком ощутимым.

Стоп, вернусь назад: пока мы говорим об утечках в общем. Самый частый вопрос, который я слышу в 2026 году, звучит гораздо приземлённее — «а пароли можно показать ИИ, если очень нужно». С этим и пойдём дальше.

Можно ли показывать пароли и базы ChatGPT

Коротко и честно: нет, загружать пароли, ключи доступа и «сырые» базы в ChatGPT или любой другой публичный AI-сервис нельзя, даже если там обещают особый режим конфиденциальности. Эти данные по определению не должны покидать контур компании.

Что реально происходит с паролями в публичных ИИ

OpenAI и другие провайдеры честно пишут в политике, что шифруют трафик, а часть данных могут использовать для улучшения моделей, если вы не отключили это в настройках. Для ChatGPT уже есть режимы с повышенной конфиденциальностью, и их точно стоит включить: отключить использование запросов для обучения, ограничить доступ к истории, почистить старые сессии. В документации OpenAI всё это расписано достаточно понятно.

Но даже при всех этих настройках остаются две проблемы. Во-первых, вы физически передаете секреты на внешние сервера, которые вам не принадлежат, и тут играют роль не только цифровые угрозы, но и чисто договорные риски. Во-вторых, никакие чекбоксы не отменяют человеческий фактор — сегодня пароль «на пять минут» ушёл в промпт, завтра кто-то скопировал кусок базы в том же стиле. Поэтому я всегда разделяю: промпт-инженерии — да, пароли и ключи — только через защищённые внутренние инструменты.

Чем заменить привычку «я ща быстро вставлю пароль»

Здесь работает не запрет, а нормальная архитектура. Я заметила, что если у команды есть удобный внутренний инструмент — тот же бот в корпоративном Telegram с доступом к зашифрованным секретам и API, — то желание «обсудить пароль с ChatGPT» резко падает. Человеку хочется решить задачу, а не именно поговорить с конкретной моделью. Раньше я думала, что достаточно просто написать политику, но после нескольких инцидентов поняла: без альтернатив сотрудники будут искать обходы.

Поэтому в методике white-data PROMAREN мы всегда совмещаем DLP, обучение и автоматизацию: запрещаем выносить секреты наружу, даём внутреннего AI-ассистента под 152-ФЗ и показываем, как он закрывает те же сценарии — анализ логов, генерация писем, разбор кода. А дальше уже подключаем DLP для контроля: если кто-то снова решил скопировать ключ в ChatGPT, агент мягко, но настойчиво напомнит, что так не играют.

И когда команда перестаёт таскать в промпты секреты, следующий логичный вопрос становится шире: окей, а чем вообще опасна утечка данных через AI, если это «всего лишь текст».

Чем опасна утечка данных и как сдержать ущерб

Утечка данных через AI бьет по трём фронтам одновременно: финансы, юрисдикция и операционный хаос. И если про штрафы уже более-менее все слышали, то про вторую волну последствий вспоминают, когда инцидент живёт уже полгода.

К чему приводит один неосторожный промпт

Сценарий выглядит примерно одинаково: сначала милый запрос «перепиши этот фрагмент договора», потом внутреннее расследование, потом письма от регулятора и пересмотр процессов. Согласно обзорам кибербезопасности крупных консалтингов (тот же McKinsey в 2025 году хорошо это описывал), средний цикл ликвидации последствий утечки — около 9 месяцев: от первой фиксации до закрытия всех хвостов и обновления политики.

Финансово это не только штрафы по 152-ФЗ и требованиям ЦБ для финансовых организаций, но и работа юристов, аудиторов, консультантов, плюс потерянные сделки из-за падения доверия. Операционно страдает всё: от разработки (боятся использовать AI даже там, где можно) до маркетинга (каждый текст проходит по пять кругов проверок). В одном из кейсов PROMAREN после единственного публичного инцидента компания на год фактически заморозила любые инициативы по AI — слишком больно обожглись.

Что помогает уменьшить урон и жить дальше

На практике меньше всего страдают те, у кого уже до инцидента были три вещи: внятная политика работы с AI, настроенный DLP и хотя бы базовое обучение людей. Тогда, во-первых, проще показать регулятору, что вы пытались как-то контролировать историю, а во-вторых, масштабы бедствия реально меньше — утек не весь архив, а один кусок, потому что остальное отрезало на уровне агентов. Самый болезненный сценарий — когда у компании нет ни одной метрики и даже непонятно, сколько данных ушло.

Я видела и обратные, более спокойные истории: инцидент всё равно случился, но DLP-логи показывают, что это единичный случай, политика задокументирована, обучение проведено, а автоматизация через n8n уже готова заменить внешние AI-сервисы в критичных сценариях. Регулятор смотрит на это иначе, чем на «мы просто верили ChatGPT». И на этом месте можно уже честно признать: я хотела сделать всё идеально с первого раза, но это было наивно пришлось пройти через несколько инцидентов, чтобы понять, какие меры реально работают.

Что я бы оставила с собой после этой статьи

Если сильно упростить, защита данных AI складывается из трёх опор. Во-первых, не таскать в ChatGPT и YandexGPT то, что по здравому смыслу не должно там оказаться — пароли, ключи, «сырые» персональные данные и уникальный код. Во-вторых, поставить DLP-агенты и политики, которые не дадут человеческой усталости или спешке превратить промпт в утечку.

В-третьих, дать людям понятную альтернативу: внутренние боты, сценарии через Make.com или n8n, те самые «AI-инструменты и практика», о которых я регулярно пишу в материалах по AI-инструментам на сайте PROMAREN и разбираю в канале PROMAREN. Тогда ChatGPT становится не дырой в безопасности, а управляемым помощником внутри честной архитектуры под 152-ФЗ.

Обо мне. Я — Марина Погодина, основательница PROMAREN и AI Governance & Automation Lead, раньше занималась внутренним аудитом и ИТ-рисками. С 2024 года помогаю командам в РФ строить white-data AI-системы под 152-ФЗ. За последние 12 месяцев мы запустили десятки автоматизаций и AI-агентов, о которых пишу в статьях про AI-инструменты и практику с нейросетями и разбираю в канале PROMAREN.

Если хочешь без истерик выстроить защиту данных AI и при этом продолжать нормально пользоваться ChatGPT, загляни на сайт PROMAREN — там собрала подход PROMAREN и методику white-data. Для тех, кто любит практику руками, есть тестовый доступ к ботам и примеры автоматизации через n8n и чат-боты для Telegram канала.

Что ещё важно знать про защиту данных AI

Можно ли обойтись без DLP, если просто запретить ChatGPT в компании?

Формальный запрет ChatGPT без DLP снижает риски только на бумаге, потому что сотрудники всё равно могут пользоваться AI через личные устройства и аккаунты. Технический контроль через DLP или прокси критичен, если вы действительно хотите управлять потоками данных. Лучше сочетать разумные запреты, политику использования AI и мониторинг, чем надеяться только на «приказы по компании».

Если мы используем только YandexGPT, утечки можно не бояться?

Переход на YandexGPT снижает часть рисков за счёт локальной инфраструктуры, но не отменяет проблемы человеческого фактора и утечек данных. Сотрудник так же может скопировать персональные данные в промпт или загрузить файл с коммерческой тайной. Поэтому нужны политики, DLP и контроль доступа к данным. Локальная платформа уменьшает радиус проблемы, но не закрывает её автоматически.

Что делать, если утечка через AI уже случилась?

Если утечка через AI уже произошла, важно сначала зафиксировать инцидент и оценить объём ушедших данных по логам и историям запросов. Затем подключить службу безопасности и юристов для оценки рисков по 152-ФЗ и договорным обязательствам. Параллельно стоит включить DLP или усилить его настройки, обучить сотрудников и пересмотреть архитектуру использования AI. Чем быстрее это сделаете, тем меньше будет вторая волна последствий.

Можно ли доверять настройкам конфиденциальности в самом ChatGPT?

Настройки конфиденциальности ChatGPT помогают снизить риски, особенно отключение обучения модели на ваших данных и очистка истории. Но они не заменяют корпоративную политику и DLP, потому что не контролируют, что именно сотрудники отправляют в запросах. Я бы относилась к ним как к дополнительному слою защиты, а не к единственному барьеру для утечек данных и секретов.

Как объяснить сотрудникам, что в AI нельзя копировать базы и пароли?

Лучше всего работает сочетание короткого обучения с живыми примерами утечек и технических ограничений через DLP. Сначала показываете, как одна строка из CRM превращается в проблему, затем даёте чёткие правила «что можно, что нельзя» и внутреннюю альтернативу для задач с данными. Если при этом DLP мягко, но последовательно блокирует нарушения, привычка «просто вставить сюда пароль» довольно быстро исчезает.



Метки: , , ,