AI дипфейки: как платформы усиливают модерацию контента

AI дипфейки: как платформы усиливают модерацию контента

Я три раза перечитала и не поверила: сенаторы США официально требуют от X, Meta, Alphabet и ещё пары гигантов отчитаться, как они будут давить сексуализированные дипфейки. Это не про Америку далеко, это про то, что завтра ваши нейросети и ваши продукты окажутся крайними.

Суть новости простая и жёсткая: сенаторы шлют письма в X, Meta, Alphabet, Snap, Reddit, TikTok и спрашивают — покажите, какие у вас «robust protections and policies» против сексуальных дипфейков и как вы собираетесь останавливать их рост. Не красивые пресс-релизы, а конкретные доказательства: что нашли, что удалили, как модерация работает, что автоматизировано. Потому что сейчас дипфейк-порно с публичными людьми, блогерами и просто школьницами разлетается быстрее, чем юристы успевают открыть Word. А теперь представьте, как это выглядит глазами регулятора: ИИ дали, а предохранитель забыли.

Для российских автоматизаторов тут несколько ударов сразу. Во-первых, это явный сигнал: «Это означает, что» регуляция ИИ контента переходит из стадии разговоров в стадию допросов с пристрастием. Во-вторых, все большие платформы начнут закручивать гайки глобально — и вам прилетит по API, по моделям, по блокировкам контента, даже если вы вообще не про дипфейки. И в-третьих, в России это работает иначе: у нас 152-ФЗ, закон о приземлении, история с «блокировками за раз», и как только западные политики начали шевелиться, наши обязательно возьмут эту повестку и повернут специфическим образом.

Самое неприятное, что подвох здесь не только в «этих ваших бигтехах». Подвох в нас с вами: мы автоматизируем генерацию контента, ставим open-source модели, прикручиваем diffusion на свой сервер и радуемся, как быстро рисуются картинки «для маркетинга». А где в ваших ТЗ пункт «запрещена генерация дипфейков реальных людей»? Где фильтр по именам, где логирование? Ночью клиент кидает мне скрин с вопросом: «Марина, а нас это вообще касается? Мы же только аватары делаем». И я понимаю, что да, касается, и ещё как.

Честно? Я три года наблюдаю, как сначала радуются автоматизации, потом вносят галочку «согласие с политикой», а потом, когда прилетает первый иск, все резко вспоминают про безопасность. «Для российских команд это» значит очень практичную вещь: если вы работаете с генерацией изображений, видео, голосов — надо прямо сейчас выписывать, что вам НЕЛЬЗЯ делать, кого нельзя загружать и кого модель не имеет права имитировать. Не когда Роскомнадзор пришёл, а сегодня, пока у вас ещё есть время дописать пару функций в бэкенде.

С одной стороны, круто, что сенаторы вообще шевелятся — тема сексуализированных дипфейков давно перезрела. С другой — помню, как похожий кейс у клиента рухнул, когда платформа внезапно включила агрессивные фильтры и его безобидные образы классифицировались как «адалт» и улетели в бан. Это не баг, нет, скорее фича, которую никто не просил, но теперь с ней придётся жить. Так что, если у вас завязан бизнес на контенте и ИИ, готовьтесь: стоимость соответствия правилам и доработок скоро станет отдельной строкой бюджета.

У меня один вопрос к вам: вы уверены, что ваши ИИ-инструменты сегодня не могут сгенерировать то, за что завтра вы будете оправдываться в прокуратуре или перед директором школы клиента? Потому что если не разобраться сейчас, через квартал будет поздно объяснять, что «мы просто подключили модную модель, все так делают». И да, дипфейки — это не только про звёзд, это завтра может быть лицо вашей сотрудницы из отдела продаж.

Читать оригинал новости →

Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.

Метки: , , ,