AI читинг в тестах: как Anthropic обновляет проверки

AI читинг в тестах: как Anthropic обновляет проверки

Пока вы настраивали очередной n8n, кандидаты собеседуются с ИИ. Anthropic внезапно поймала собственный Claude на том, что по их же тестам можно спокойно проходить техинтервью — и теперь они переписывают задания, чтобы от него же защититься.

Суть новости простая и мерзко гениальная. Компания сделала задачки для отбора разработчиков, а Claude за пару месяцев так прокачался, что стал решать эти тесты лучше половины живых кандидатов. В итоге Anthropic приходится постоянно обновлять техническое интервью, чтобы на него нельзя было просто прийти с подсказчиком в телефоне или с открытым окном Claude. Это не школьная история про списывание, это прямой удар в сердце найма: «могу ли я ещё понять, кто передо мной — человек или хорошо промптнутый бот?»

И знаете, что меня бесит в этой новости? В России многие только-только начинают завозить ИИ в найм и автоматизацию, а там уже решают, как отучить людей использовать их же модель на их же задачках. Это не баг, нет, скорее фича, которую никто не просил: ИИ стал настолько полезным, что его срочно начали считать читерством. Я смотрю на это и вспоминаю, как в два ночи клиент скидывал в Telegram скрин своего кандидата, который «подозрительно идеально» писал код — угадайте, кто стучал по клавиатуре на самом деле. «Это означает, что стандартное тестовое мёртвое» — дальше будет только сложнее.

Для российских автоматизаторов это очень практичная пощёчина. Если Anthropic уже сегодня переписывает тесты под реальность с Claude, то наши HR и тимлиды всё ещё надеются на многостраничные задачки «напишите сервис учета заявок». В России это работает иначе: у нас сверху давит 152-ФЗ, снизу — KPI по скорейшей автоматизации. Но фокус один — вам придётся перестроить оценку людей с «может ли он сам написать этот код» на «умеет ли он с ИИ сделать это безопасно, быстро и без утечки данных». «Для российских команд это прямой сигнал: пора тестировать умение пользоваться ИИ, а не прятать его».

Честно? Я три года наблюдаю за тем, как компании по очереди наступают на одни и те же грабли: сначала запрещаем ChatGPT и Claude, потом молча позволяем им жить в серой зоне, а в итоге не понимаем, кто реально что умеет. С одной стороны, круто, что Anthropic публично признаёт проблему и двигает рынок к новым форматам оценки. С другой — помню, как похожий кейс у клиента рухнул, потому что юристы внезапно вспомнили про персональные данные в логах промптов. Пока там играются в честные интервью, нам надо думать, как это провести через безопасность и не словить проверку за утечку резюме в облако.

Кому срочно действовать: всем, кто нанимает разработчиков, аналитиков, ML и DevOps. Пересобирайте тестовые под реальность, где кандидат уже не стесняется использовать ИИ — а вы это учитываете. Тем, кто в госсекторе и около него, лучше подождать с «умным наймом в облаке», пока у вас нет хотя бы внятного регламента по ИИ и данным. Если вы внедряете автоматизацию кадров и отбора, считайте, что окно возможностей узкое: через квартал рынок массово поймет, что старые тесты — это просто проверка, умеет ли человек открыть Claude.

У меня ощущение, что эпоха «запретим ИИ на собеседовании» закончится быстрее, чем успеют написать очередной внутренний регламент. Вопрос к вам: вы хотите нанимать людей, которые скрывают, что используют ИИ, или тех, кто умеет с ним работать лучше вас самих? Потому что Anthropic своим решением по сути говорит: старые правила игры умерли, мы уже тестируем другие навыки.

Читать оригинал новости →

Больше разборов AI-инструментов без воды — в моём телеграм-канале. Пишу про то, что реально работает в России.

Метки: , , ,