
Страх, что AI-инструменты найма усугубят bias — обоснованный. Есть громкие случаи, когда они это делали. Но это не свойство AI; это свойство плохих обучающих данных и ленивого продуктового дизайна. Сделанный правильно, AI-скрининг снижает bias по сравнению с проверкой одними людьми.
Чтобы это работало, должно быть три вещи: модель слепа к защищённым атрибутам, система выдаёт объяснение к каждому решению, команда ежеквартально запускает adverse-impact аудиты. Пропустите хоть одно — и вы вернулись к «человек или хуже».
Большинство современных AI-платформ найма поддерживают «blind режим», который убирает имя, фото, возраст, пол и локацию из экрана скрининга. Включите его. Pass-through bias по этим признакам — самый частый failure mode AI-найма.
Предсказуемо, рекрутеры часто сопротивляются — они привыкли видеть имена. Не сдавайтесь. Данные однозначны: blind screening поднимает на 25–40% больше кандидатов из недопредставленных групп без потери качества найма.
Правило 4/5 EEOC — регуляторный минимум: pass rate защищённой группы не должен падать ниже 80% от группы с самым высоким pass rate. HRBlade автоматически прогоняет этот анализ по каждой вакансии; если у вас другая платформа, считайте вручную в R или Python по выгруженному CSV.
Когда находите adverse impact, ответ не в том, чтобы понизить планку — а в том, чтобы понять, какие признаки дали разницу. Современный AI-инструментарий даёт per-decision explainability (GDPR Article 22 требует этого). Удалите смещённые признаки, перетренируйте, аудитируйте снова.

