Регулирование AI в ЕС: разбор запретных практик

Регулирование AI в ЕС: разбор запретных практик

Пока вы спали, Евросоюз тихо решает, что считать ИИ. Не запускать, не рекламировать, а прописывать, где заканчивается «обычное софтишко» и начинается опасная игрушка, которую можно запретить. И да, это напрямую ударит по тому, как вы делаете свои ботов, скоринги и автоворонки, даже если вы ни разу не были в Европе.

Суть новости: ЕС запустил консультацию по двум вещам — определению, что такое AI-система, и списку «запрещенных применений». Им сейчас важно услышать всех — от разработчиков до правозащитников. Звучит красиво, как «демократическое обсуждение», а по факту это черновик будущих штрафов и проверок. Если они решат, что ваш хитрый скоринг резюме — это high-risk AI, половина ваших кейсов на международный рынок просто не выйдет. А если вы ориентируетесь на европейских заказчиков, будьте готовы: «Это означает, что ваша автоматизация внезапно может стать незаконной».

Я сегодня в два ночи, залипая в n8n, ловлю ссылку от коллеги: «Смотри, они спрашивают, что такое ИИ». Красиво, да — TechCrunch пишет, юристы радуются, консультанты уже точат прайсы. Но я вспоминаю, как у одного клиента в 2021 весь проект по 152-ФЗ полетел только потому, что регулятор внезапно решил: «а вот это у вас уже биометрия». Сейчас в Европе ровно тот же этап — только масштаб больше, и под раздачу попадут и чат-ботики, и рекомендательные системы, и ваши любимые «умные» ассистенты для саппорта.

Для России тут двойной эффект. С одной стороны, мы как бы «вне европейской юрисдикции», можно расслабиться и делать, что хотим. С другой — все вменяемые вендоры и integrators будут смотреть на AI Act, как на эталон: «если пройдет в ЕС, пройдет везде». Для российских команд это практический смысл: либо вы сразу проектируете решения так, чтобы не вылезать в опасные категории, либо через год-два переделываете все под новые правила заказчика. А пока там обсуждают, у нас 152-ФЗ, локализация, обезличивание и бесконечные DPA — и вот в эту кашу сейчас аккуратно кладут еще один европейский слой.

Честно? Я в шоке и одновременно не удивлена. Три года смотрю, как все орут «AI во всем», а потом начинают судорожно придумывать, как это вообще проверять и запрещать. С одной стороны, круто, что ЕС хотя бы спрашивает индустрию. С другой — я помню, как похожий кейс у клиента рухнул, когда под финал проекта вышла «уточняющая методичка» регулятора на 40 страниц, и половину логики пришлось выкинуть. Это не баг, нет, скорее фича, которую никто не просил: сначала хайп, потом регуляторный обвал.

Если вы сейчас разворачиваете решения с AI для зарубежных клиентов — бегом к юристам и продукту, закладывайте, что часть use-case может оказаться в «запрещенке» или high-risk. Если делаете только под Россию, не радуйтесь слишком: наши регуляторы очень любят «ориентироваться на международный опыт» с лагом в пару лет. «Это означает, что окно безжаберной автоматизации у вас очень маленькое».

Меня больше всего тревожит одно: кто в итоге пропишет границу между «умным фильтром» и «опасной системой принятия решений» — инженеры или люди, которые видели код только в сериалах. А вы готовы к тому, что завтра ваш безобидный AI-модуль по решению маркетинга попадет в список «так больше нельзя» только потому, что в Брюсселе сегодня кто-то по-другому формулировку понял?

Метки: , , ,