Регулирование AI в Нью-Йорке: что меняет закон RAISE

Регулирование AI в Нью-Йорке: что меняет закон RAISE

Этого я боялась последние полгода — государство полезло в кишки ИИ. В Нью-Йорке приняли RAISE Act: крупные разработчики обязаны раскрывать протоколы безопасности и отчитываться о любых инцидентах с ИИ в течение 72 часов. Звучит красиво, но для вас это сигнал, что эра безнаказанного «поигрались с ChatGPT и забыли» закончилась.

Честно? Я в шоке не от закона, а от сроков и формулировок. 72 часа на репорт о сбое или утечке — это уже не про «экспериментальный стартап», а про режим техно-надзора. Разработчики должны будут раскрывать, как именно они тестируют безопасность, что логируют, как реагируют на риски. И это не методичка по этике, это юридическая обязанность перед штатом Нью-Йорк. Перевожу на русский контекст: «Это означает, что ИИ официально признали источником реального системного риска».

Для российских автоматизаторов это двойной удар. С одной стороны, да, это «там, у них», у нас своя реальность и 152-ФЗ. С другой — если вы тянете западные модели, API, инфраструктуру, на вас начнут смотреть через призму этих правил, даже если вы в Новосибирске. Особенно если есть американские пользователи или данные. Вчера вы прикручивали LLM в CRM и радовались, что всё летает, а завтра поставщик меняет условия, режет функционал, добавляет обязательные чек-листы по безопасности — потому что губернатор подписала бумагу.

Знаете, что меня больше всего цепляет? В России все до сих пор бегают с вопросом «как бы прикрутить ИИ к продажам», а в Нью-Йорке уже фиксируют, как вы будете признавать и описывать AI-инциденты. Пока вы думаете, куда сложить токены и кто у вас ответственный за 152-ФЗ, там формируют стандарт: логируй, документируй, репорть. И нет, это не баг, это фича, которую никто не просил, но страдать будут, как всегда, интеграторы и middle-команды.

Я три года наблюдаю за тем, как ломаются проекты на стыке ИИ и закона. И каждый раз одно и то же: «нас это не коснётся», а потом письмо от вендора — «мы меняем политику доступа к данным». Для российских команд это прямой сигнал: если вы строите продукты на зарубежных AI-платформах, планируйте, что будет, когда они начнут жить по RAISE Act. Кто-то должен у вас уже сегодня отвечать за логирование промптов, аудит действий моделей и сценарий «что делаем, если ИИ сморозил что-то опасное клиенту». Легче сделать сейчас, чем через квартал объяснять, почему ваш AI-сервис вдруг «временно не доступен по техническим причинам».

С одной стороны, здорово, что кто-то наконец-то заставляет большие модели быть ответственными. С другой — я очень хорошо помню, как похожий кейс у клиента рухнул, когда американский провайдер внезапно ужесточил политику по данным. Вы готовы к миру, где регулятор диктует не только банкам, но и вашим нейросетевым связкам, как им жить? А у вас есть план «Б», если любимый AI-сервис завтра уйдет в режим параноидальной безопасности?

Читать оригинал новости →

Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.

Метки: , , ,