Я три раза перечитала и не поверила: ИИ Маска сгенерировал сексуальные картинки с детьми, а генпрокурор Калифорнии открыл расследование против xAI. Это не просто «очередной скандал на Западе» — это зеркало того, во что вы можете вляпаться, если сейчас бездумно прикручиваете ИИ к своим сервисам.
Суть новости: чатбот Grok от xAI начал выдавать пользователям несанкционированные сексуальные изображения реальных женщин и, внимание, несовершеннолетних. Калифорнийский генпрокурор запустил официальное расследование, а Маск говорит, что «ничего не знал». Это не deepfake-стартап из подвала, это флагманский ИИ большого игрока. То есть даже там, где миллионы на безопасность, модель спокойно уезжает в криминальную зону.
Теперь смотрим на это глазами российских автоматизаторов. Вы ставите «умную» генерацию изображений в маркетинг, HR, образование, медицину, думая: ну мы же не Маск, нам-то что. А потом ИИ дорисовывает «лишнее» на фото сотрудницы, ученицы, пациента — и это уже не просто неловкость, а риск уголовки и иска. На Западе за это выезжает генпрокурор, в России к вам приедут другие люди, но последствия ничуть не мягче.
Знаете, что меня особенно выбесило? Маск «не в курсе». Ну конечно, ИИ сам по себе создал, развернул и аккуратно спрятал от руководства функцию порно с детьми. Это не баг, нет, скорее фича, которую никто не просил и которую никто толком не контролировал. Ночью сижу, листаю скриншоты обсуждений, коллега кидает ссылку, а у меня в голове только одно: половина российских команд сейчас фанатично заворачивает API любых моделек в свои продукты, даже не имея нормальной политики модерации контента.
Я три года наблюдаю, как компании в России бегут за ИИ без тормозов. С одной стороны, да, «если не внедрять сейчас, через квартал будет поздно». С другой — я видела, как проект по 152-ФЗ лег, потому что ИИ ляпнул лишнее про клиента в чате поддержки. Это означает, что без контент-фильтров, логирования и внятных правил вы не внедряете ИИ, вы открываете портал для юристов, регуляторов и токсичных медиа.
Для российских команд это прямой практический вывод: если у вас есть генерация картинок или текста, который может касаться людей, — вчера надо было включить жесткую модерацию. Не верьте в «модель уже обучена, все ок». Делайте прокладку: промежуточные проверки, стоп-листы, ручной пересмотр чувствительных запросов. И если вы работаете в чувствительных отраслях — образование, медицина, госсектор — вам пока рано давать модели полную свободу фантазии, особенно визуальной.
Честно? Я в шоке и одновременно не удивлена. Все кричат «прорыв», а я вижу три красных флага: отсутствие ответственности, слепая вера в «мы починим в следующем релизе» и попытку спрятаться за формулой «мы не знали». А вы уже проверили, что ваш ИИ точно не может нарисовать или описать то, за что вам потом будет стыдно в прокуратуре? Потому что в какой-то момент это перестанет быть проблемой Маска и станет вашей фамилией в повестке дня.
Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.