
Take-home кодинг-тесты были золотым стандартом найма инженеров десятилетие. Потом случились GPT-4 и Copilot. Теперь любой может за вечер отгрузить приличное решение типичного take-home — даже если он реально не умеет писать код.
Anti-AI детект плюс изменение формата теста — то, как команды держат сигнал честным. Чистый детект не может быть единственным ответом — false positives слишком дорого стоят. Но в связке с изменением формата вы держите take-home полезным.
Первое — поведенческие сигналы: ритм печати, паттерны редактирования, события вставки, распределение времени на задачу. AI-assisted сабмиты выглядят иначе, чем рукописные. Точность детекта на нашем бенчмарке — 94%, false-positive rate <2%.
Второе — изменение формата: переход от «реализуй X» к «обзор и улучшение этого codebase». AI плохо отлаживает незнакомый код, особенно с тонкими архитектурными issues. Реальные инженеры справляются; LLM-assisted кандидаты — спотыкаются.
Третье — follow-up живой walkthrough: 30-минутный звонок, где кандидат объясняет своё решение. Кто реально писал — говорит свободно про tradeoffs; LLM-assisted — не может.

