Сегодня, 12:30
|
461
|
Время чтения: 14 минут
Содержание
- Можно ли вообще объективно оценить человека
- Может ли алгоритм ИИ понять человека лучше, чем другой человек?
- Если AI отсеивает 95% резюме за секунды - не теряем ли мы гениев?
- Можно ли свести человека к набору метрик?
- Где заканчивается помощь и начинается тотальный контроль?
- Будущее HR: тренды 2026 и роль AI в оценке персонала
- Заключение
Василий Пигин
Автор статьи
Осенью 2025 года заявление Германа Грефа о планах «Сбера» сокращать сотрудников на основе выводов ИИ стало сигналом: алгоритмы входят в HR как арбитры, а не просто инструменты. Но способен ли ИИ заменить эмпатию и опыт человека
Вокруг этого вопроса сформировались три позиции: ИИ уничтожит традиционную оценку, ИИ никогда не заменит человеческое взаимодействие или оценка трансформируется, но не исчезнет. В материале по мотивам двух выпусков подкаста с экспертами Василием Пигиным, Константином Татарским и Дмитрием Поляковым разбираем весь цикл — от найма до увольнения. Главный вывод: ИИ не убьет оценку, но сделает её точнее — при условии, что последнее слово остается за человеком.
Искусственный интеллект уже пишет код, ставит диагнозы и создает картины. Логично предположить, что оценивать эффективность сотрудников для него — задача несложная. Но означает ли это, что профессия HR-оценщика исчезнет? В этой статье мы проанализировали всю цепочку управления персоналом — от найма до увольнения — и попытались найти ответ на главный вопрос: убьет ли AI оценку персонала или трансформирует её до неузнаваемости?
Мы рассмотрим три возможных сценария:
|
Полная замена — AI полностью вытесняет HR-специалистов. |
|
Консервативный сценарий — AI остается бесполезной игрушкой, а компании теряют конкурентоспособность. |
|
Взаимодействие Человек-ИИ — AI автоматизирует рутину, человек фокусируется на стратегии и эмпатии. |
Эксперты (генеральный директор TTI Россия Василий Пигин, бизнес-тренеры Константин Татарский и Дмитрий Поляков) сходятся во мнении, что будущее именно за третьим вариантом. Но обо всем по порядку.
Можно ли вообще объективно оценить человека
Традиционная оценка персонала
Современная практика оценки персонала опирается на классические методы: интервью, ассессмент-центры (центры оценки), оценку «360 градусов», KPI и ежегодные performance review (оценка эффективности работы). Однако все они грешат субъективностью и ретроспективностью.
Руководитель, проводящий интервью, опирается на личное впечатление, которое может быть обманчиво. Ассессмент-центры, требующие серьезных временных и финансовых затрат, моделируют искусственную среду, а не отражают реальную ежедневную эффективность.
KPI и квартальные отчеты часто фиксируют результат постфактум, но не объясняют его причин и не учитывают нюансы контекста, в котором работал сотрудник.
Именно эти ограничения подталкивают компании к поиску более объективных и непрерывных инструментов.
Субъективность как проблема
Главный враг справедливой оценки — когнитивные искажения, которым подвержены даже опытные руководители.
Эффект ореола заставляет нас приписывать приятному кандидату из престижного вуза высокий интеллект и профессионализм Ошибка подтверждения работает иначе: задавая вопросы, мы бессознательно ищем в ответах подтверждение своему первому впечатлению, игнорируя противоречащие факты.
Эффект первого впечатления (или «правило трех секунд») может закрепить неверный образ сотрудника на годы вперед, даже если впоследствии он ведет себя иначе.
Искажения такого рода неизбежно ведут к дискриминации. Сотрудники, похожие на руководителя, получают более высокие оценки. Резюме с «женскими» именами реже проходят отбор на технические должности. Возраст и тембр голоса на видео-созвоне тоже влияют на решение интервьюера.
Практический кейс. В одной технологической компании анализ показал, что сотрудники, разделявшие с руководителем хобби (например, горные лыжи или винный клуб), получали оценки на 15–20% выше при сопоставимых объективных результатах работы. Личные симпатии негласно стали частью системы оценки.
Решения через стандартизацию
Осознавая проблему человеческой субъективности, HR-сообщество давно пытается ее решить через стандартизацию. Ассессмент-центры стали прорывом своего времени: всех кандидатов помещают в одинаковые условия, дают им одинаковые кейсы и оценивают по единым шкалам компетенций. Это позволяет нивелировать личную симпатию интервьюера и сравнить кандидатов в контролируемой среде. В дополнение к этому компании активно используют стандартизированные тесты — от классических тестов на IQ до сложных личностных опросников (таких как Hogan, DISC/DFMotivators/ACI, EQ), которые обещают «разложить» психотип человека на измеримые показатели.
Однако, по мнению некоторых специалистов (особенно тех, кто ратует за продвижение AI везде и всюду), на финальном этапе тестирования или центра оценки также существует некоторая уязвимость – результаты и того, и другого интерпретирует человек, который, пусть и вооруженный шкалами и метриками, снова рискует внести в оценку личные искажения
Вот здесь и возникает ключевой вопрос: «Если человек субъективен, то может AI стать объективным судьёй? Давайте посмотрим, как AI уже меняет оценку персонала.»
Может ли алгоритм ИИ понять человека лучше, чем другой человек?
AI в continuous performance management
Традиционная модель оценки эффективности работы сотрудника ретроспективна: раз в полгода или год руководитель садится писать performance review, оглядываясь на события давностью в несколько месяцев. Такой подход не позволяет корректировать действия или ошибки сотрудника здесь и сейчас — оценка приходит слишком поздно, когда возможности что-то изменить уже упущены. Кроме того, годовая оценка грешит «эффектом недавности»: запоминаются последние события, поэтому зачастую бывает, что достижения начала периода обесцениваются.
Новая модель, которую предлагает AI, — это непрерывный мониторинг эффективности (continuous performance management). Искусственный интеллект анализирует цифровой след сотрудника в реальном времени: частоту и тональность сообщений в корпоративных мессенджерах, коммиты в Git или задачи в Jira у разработчиков, активность в CRM у продавцов, участие в кросс-функциональных проектах. На основе этих данных система не просто собирает статистику, а дает автоматические рекомендации: кому нужно подтянуть экспертизу, кто готов к повышению, а кто, наоборот, снижает темп и требует внимания руководителя.
На мировом рынке такие инструменты уже не новинка. Workday активно внедряет AI-модули в свои HR-платформы, BetterWorks помогает ставить и отслеживать цели в непрерывном режиме, а Lattice фокусируется на постоянной обратной связи и развитии сотрудников. Эти системы не заменяют живое общение с руководителем, но делают оценку более частотной, прозрачной и привязанной к реальным действиям, а не к абстрактным впечатлениям.
AI анализирует «soft skills»
Самый сложный вызов для автоматизации — оценка мягких навыков. AI уже научился работать с жесткими метриками (сколько продаж, сколько строк кода), но вот с поведенческими паттернами у него. Конечно, AI пытается анализировать коммуникацию в Slack или Bitrix: тональность сообщений, конструктивность обсуждений, частоту помощи коллегам, скорость реакции на запросы. Некоторые системы пытаются даже оценивать эмоциональное состояние сотрудника через анализ текста — не выгорает ли человек, не становится ли его тон более раздраженным или апатичным.
Но здесь мы упираемся в принципиальный вопрос: может ли AI понять человека лучше, чем другой человек? Эксперты сходятся во мнении, что нет, не может. AI действительно способен обработать тысячи резюме, выделить паттерны поведения и выдать точную статистическую модель «идеального кандидата». Но эта модель всегда будет смотреть в прошлое — она обучена на данных уже состоявшихся карьер по стандартно написанным резюме и не умеет распознавать нестандартный потенциал.
Человеческая оценка включает то, что невозможно оцифровать: способность понять контекст личной ситуации, увидеть искру таланта за неуклюжей формулировкой, почувствовать химию командного взаимодействия. Руководитель может заметить, что сотрудник, который формально не выполняет KPI, на самом деле удерживает команду от развала своим авторитетом и эмпатией. Или разглядеть в стеснительном новичке будущего лидера, которому просто нужно время на раскачку. Все, что требует эмпатии, контекста и ответственности, AI имитирует, но не замещает.
Кроме того, анализ мягких навыков через цифровой след вызывает закономерные опасения о тотальном контроле. Где проходит граница между полезной аналитикой и слежкой? Когда мы начинаем оценивать не только рабочие сообщения, но и паузы между ними, невербальные сигналы, случайные фразы в неформальных чатах — не превращается ли офис в цифровой концлагерь? Этот этический рубеж только предстоит осмыслить, и единого ответа здесь пока нет.
Предиктивная оценка: кто уйдет, кто вырастет
Самая амбициозная функция AI в HR — предиктивная аналитика. На основе исторических данных алгоритмы учатся предсказывать будущее: кто из сотрудников с высокой вероятностью уволится в ближайшие полгода, у кого есть потенциал вырасти до руководителя, а какие кандидаты покажут наилучшие результаты после найма. LinkedIn Talent Insights, например, уже умеет прогнозировать риски оттока кадров, анализируя профили сотрудников и рыночные тенденции.
Самая амбициозная функция AI в HR — предиктивная аналитика. На основе исторических данных алгоритмы учатся предсказывать будущее: кто из сотрудников с высокой вероятностью уволится в ближайшие полгода, у кого есть потенциал вырасти до руководителя, а какие кандидаты покажут наилучшие результаты после найма. LinkedIn Talent Insights, например, уже умеет прогнозировать риски оттока кадров, анализируя профили сотрудников и рыночные тенденции.
Второй пример еще острее: если AI говорит, что кандидат не вырастет до нужного уровня, стоит ли отказывать ему в найме? Ответ — ни в коем случае. Во-первых, AI предсказывает вероятности, а не судьбу. Во-вторых, исторические данные, на которых обучается алгоритм, могут содержать системные ошибки и предвзятости. В-третьих, многие великие карьеры строились вопреки прогнозам. Поэтому даже самый совершенный алгоритм должен оставаться инструментом в руках человека, а не судьей с окончательным приговором.
Если AI отсеивает 95% резюме за секунды - не теряем ли мы гениев?
AI-скрининг резюме
Технология AI-скрининга работает по простому, но эффективному принципу: алгоритм парсит резюме, извлекая структурированные данные (опыт, навыки, образование), затем сопоставляет их с требованиями вакансии и ранжирует кандидатов — от «идеального совпадения» до «не подходит». На это уходят секунды. Там, где человек потратит часы на чтение сотен откликов, AI обрабатывает тысячу резюме за минуту. Инструменты вроде HireVue, Pymetrics и LinkedIn Recruiter AI де-факто стали стандартом для массового подбора.
Но цена этой скорости — риск потерять нестандартных кандидатов. AI ищет точные совпадения по ключевым словам и паттернам, отсеивая тех, чей путь не вписывается в шаблон. Человек без профильного образования, но с горящими глазами, или специалист, сменивший профессию в зрелом возрасте, часто вылетают из воронки еще до того, как их увидит живой рекрутер. Алгоритм не способен оценить потенциал, если он не подтвержден формальными признаками в резюме.
AI-интервью: видео-анализ и психометрия
Следующий уровень автоматизации — AI-интервью. Кандидат отвечает на вопросы перед камерой, а алгоритм анализирует не только содержание ответов (через NLP), но и микросигналы: мимику и эмоции, тональность и тембр голоса, паузы, скорость речи, уверенность.
Параллельно набирают популярность инструменты игровой психометрии: Pymetrics или Knack предлагают кандидатам короткие игры, в ходе которых AI оценивает когнитивные и эмоциональные паттерны — скорость реакции, гибкость мышления, способность к риску — и на основе этого предсказывает успешность для конкретной роли.
Однако у этой технологии есть темная сторона. AI обучается на исторических данных компании. Если раньше на должность отбирали преимущественно мужчин 30–40 лет, алгоритм неосознанно выучит этот паттерн и начнет дискриминировать всех, кто в него не вписывается.
Самый громкий пример — Amazon, которая свернула экспериментального AI-рекрутера, обнаружив, что тот систематически занижал оценки женщинам. Алгоритм не был сексистом по замыслу — он просто повторил предвзятость, заложенную в данных за прошлые годы.
Этика автоматизации найма
Главная этическая проблема автоматизации найма — «черный ящик». Кандидат получает отказ, но понятия не имеет, почему. Это не просто вопрос вежливости: человек не может исправить ошибку в резюме или подготовиться иначе, если не знает критериев оценки. Более того, AI не просто воспроизводит существующие предубеждения — он их усиливает, масштабируя дискриминацию на тысячи решений в минуту.
В Евросоюзе на это уже отреагировали законодательно: GDPR и новые регулирования в сфере ИИ вводят «право на объяснение». Компания обязана предоставить кандидату информацию о том, как работал алгоритм и на каком основании принято решение. Но технически выполнить это требование часто сложно: многие нейросети действительно остаются «черными ящиками», неспособными объяснить собственную логику.
Отсюда главный вопрос, на который предстоит ответить: должен ли кандидат знать, что его оценивал AI, и если да — как обеспечить прозрачность без потери технологичности?
И как измерить, насколько он точен?
Можно ли свести человека к набору метрик?
HR аналитика как тренд
People Analytics (или HR-аналитика) — это системный подход к сбору и анализу данных о сотрудниках для принятия кадровых решений. Речь идет о переходе от «HR на интуиции», где решения принимаются на основе опыта и ощущений, к «HR на данных», где каждое действие обосновано цифрами и фактами. Компании, внедряющие People Analytics, перестают гадать, почему растет текучка или падает вовлеченность, — они видят точные причины и могут на них влиять.
Ключевых метрик, за которыми следят аналитики, несколько:
— текучесть кадров (общая и по отделам),
— время закрытия вакансии,
— качество найма (как быстро новичок выходит на целевые показатели),
— уровень вовлеченности и продуктивности.
AI в «people analytics»
Искусственный интеллект выводит HR-аналитику на принципиально новый уровень. Там, где человек видит очевидные зависимости (например, связь зарплаты и удовлетворенности), AI находит скрытые корреляции, которые невозможно обнаружить невооруженным глазом.
Нейросеть может выяснить, что сотрудники, которые обедают с коллегами из других отделов, увольняются на 20% реже, или что команды с определенным гендерным балансом показывают стабильно более высокую вовлеченность. Такие инсайты могут быть интересны для точечных управленческих решений.
Кроме того, AI строит предиктивные модели. Система не просто констатирует: «в прошлом квартале текучка выросла», а прогнозирует: «через шесть месяцев вероятность увольнения Иванова составляет 85%, если не изменить условия работы». На основе этих прогнозов ИИ может выдавать автоматические рекомендации: кого пора повысить, кому предложить обучение, а с кем провести индивидуальную беседу. Инструменты вроде Visier, Crunchr или One Model уже интегрируют такие функции в повседневную работу HR-департаментов, превращая их из реактивных в проактивные.
Опасности «метрификации» людей
Однако увлечение цифрами таит серьезную опасность. Экономист Чарльз Гудхарт сформулировал закон, который идеально описывает эту ловушку: «Когда метрика становится целью, она перестает быть хорошей метрикой».
Если компания объявляет, что теперь будет оценивать разработчиков по количеству коммитов в Git, очень скоро она получит тысячи мельчайших коммитов, каждый из которых правит одну строчку кода, — и ноль реальной пользы для продукта.
Сотрудники начинают работать не на результат, а на показатель, и метрика из инструмента превращается в симулякр.
Данные важны. Но если мы видим только цифры - не теряем ли мы человека
Где заканчивается помощь и начинается тотальный контроль?
Приватность vs эффективность
Современные системы AI способны анализировать огромный пласт данных о сотруднике: рабочую переписку в email и корпоративных мессенджерах, время активности (когда человек приходит и уходит, есть ли длинные паузы), эмоциональное состояние по тональности текста, а при наличии камер — даже биометрию и микровыражения лица. Технически это позволяет создать максимально полный портрет эффективности. Но здесь возникает главный этический вопрос: где заканчивается аналитика и начинается вторжение в частную жизнь?
Можно ли анализировать личные сообщения, если они отправлены в рабочем чате в нерабочее время? Имеет ли компания право отслеживать сотрудника 24/7, даже когда он формально не на связи? Должен ли человек давать явное согласие на то, что его эмоции и поведение будут оцениваться алгоритмом? В Евросоюзе на эти вопросы частично ответили: GDPR и новые регулирования в сфере ИИ в некоторой степени ограничивают возможности мониторинга. Но в целом, технология намного опередила регулирование.— граница приватности только формируется, и бизнес вынужден действовать методом проб и ошибок, где ценой эксперимента часто становится человеческий комфорт.
Предвзятость и дискриминация в AI
Ирония искусственного интеллекта в том, что он не просто наследует человеческие предрассудки, но и усиливает их. AI обучается на исторических данных: если раньше компания нанимала преимущественно мужчин, алгоритм усвоит, что «мужчина = хороший кандидат», и начнет отсеивать женщин. Или будет рекомендовать только тех кандидатов, резюме которых четко соответствует клишированным требованиям. Это не злой умысел, а математика: машина ищет паттерны, повышающие точность прогноза, и находит их там же, где находили люди, обучавшие ИИ.
Самый простой пример — AI-рекрутер Amazon, который дискриминировал женщин, потому что учился на резюме успешных (в основном мужских) сотрудников за прошлые годы.
Но дискриминация бывает и менее очевидной.
HireVue с ее анализом мимики столкнулась с критикой, что алгоритм хуже распознает лица нестандартной внешности или людей с асимметрией.
Системы анализа голоса и речи часто предвзяты к акцентам: кандидат с южным говором или каким-либо иным акцентом может получить более низкие баллы не из-за слабых компетенций, а из-за особенностей произношения.
Бороться с этим можно только комплексно: проводить регулярный аудит AI на предвзятость, диверсифицировать обучающие данные (сознательно включая в выборку людей разных групп) и внедрять принцип human-in-the-loop, где финальное решение всегда остается за человеком, способным оспорить несправедливый вердикт алгоритма.
Право на объяснение и прозрачность
Большинство современных нейросетей работают по принципу «черного ящика». Кандидат получает отказ, но не понимает почему. Сотрудник не знает, по каким критериям его оценили и как улучшить свои показатели. Это не просто вопрос психологического комфорта — это вопрос фундаментальной справедливости. Если решение влияет на жизнь человека (будь то отказ в найме или негативная оценка результатов деятельности), он имеет право знать его основания.
Сейчас растет интерес к направлению Explainable AI (XAI) — попыткам сделать «черный ящик» прозрачным. Но пока технология несовершенна, главный вопрос остается открытым: можно ли доверять системе, чьи решения мы не способны проверить и понять? И не превращается ли тогда AI в оракула, которому мы следуем слепо, просто потому что «так сказал компьютер»?
Будущее HR: тренды 2026 и роль AI в оценке персонала
Если AI может нанимать, оценивать, предсказывать - зачем нужны HR-специалисты?
Три сценария будущего
|
Сценарий № 1 – УТОПИЧЕСКИЙ |
AI полностью автоматизирует все HR-функции: нанимает, оценивает, продвигает и увольняет. HR-специалисты как профессия исчезают, уступая место инженерам по настройке алгоритмов. Сотрудники превращаются в набор цифр — их ценность определяется исключительно метриками, которые заложил разработчик. Риски этого сценария очевидны: потеря человечности, тотальный контроль и воспроизводство системных ошибок в масштабе всей компании. Алгоритм, однажды принявший дискриминационную логику, будет тиражировать её на тысячи сотрудников без возможности апелляции.
|
Сценарий № 2 – КОНСЕРВАТИВНЫЙ |
Сторонники этого подхода либо полностью игнорируют технологии, либо используют их как
необязательные игрушки. Риск здесь обратный: отставание от конкурентов, которые
уже научились использовать AI для снижения издержек и повышения точности оценки эффективности.
|
Сценарий № 3 – РЕАЛИСТИЧНЫЙ |
Наиболее вероятный. AI забирает на себя рутину: первичный скрининг резюме, сбор и предварительный анализ метрик, мониторинг цифрового следа, предиктивные модели. Человек же фокусируется на том, что алгоритмам недоступно: стратегии развития культуры и ценностей, коучинге и поддержке сотрудников, этическом контроле за самим AI. Оценка персонала не исчезает, но радикально трансформируется: она становится более точной за счет данных и более человечной за счет освободившегося времени специалистов.
Трансформация роли HR
Если сценарий симбиоза становится реальностью, профессию HR ждет глубокая перестройка. Часть функций уйдет безвозвратно. Ручной скрининг резюме, когда рекрутер часами просматривает сотни откликов, — вчерашний день. Рутинная оценка по формальным чек-листам, администрирование метрик и подготовка отчетов — всё это AI делает быстрее и точнее. Освободившееся время должно быть заполнено принципиально иным содержанием.
На первый план выходят компетенции, которые раньше считались «мягкими» и второстепенными.
Стратегический HR: работа с культурой, ценностями, миссией компании — то, что формирует идентичность и не поддается прямой алгоритмизации.
Эмпатия и коучинг: оценка и интерпретация soft skills, проектирование команд, помощь в разрешении конфликтов, индивидуальная работа с мотивацией.
Этика: контроль за работой AI, аудит на предвзятость, защита сотрудников от несправедливых решений алгоритмов.
Креативность: создание событий и ритуалов, которые удерживают людей в компании сильнее, чем любые бонусы.
В цифрах новая формула работы HR-специалиста выглядит так: 20% времени — работа с AI (настройка инструментов, проверка данных, анализ инсайтов), 30% — стратегическая деятельность (развитие культуры, организационное проектирование) и 50% — чисто человеческое взаимодействие: развитие руководителей и сотрудников, разрешение конфликтов, личное общение. Профессия не исчезает — она становится сложнее и интереснее.
Ответ на главный вопрос: убьет ли AI оценку персонала?
Эксперты сходятся во мнениях: нет AI не убьет оценку персонала.
Эмпатия, культурное соответствие, креативность, способность вдохновлять — эти качества невозможно свести к метрикам.
Сотрудники должны верить, что их оценивают справедливо. AI без участия человека — это машина, выносящая приговор. Даже если алгоритм объективно прав, отсутствие человеческого лица в процессе оценки рождает недоверие, страх и отчуждение. Люди готовы принять критику от руководителя, которому доверяют, но никогда не примут ее от «черного ящика».
Кто-то должен контролировать сами алгоритмы, бороться с предвзятостью, заложенной в данных, защищать сотрудников от ошибочных решений. AI не способен рефлексировать по поводу собственной справедливости — это функция человека.
Заключение:
Главное требование технологического прогресса – развитие человеком тех компетенций, которых нет у машины:
1. Критическое мышление — способность ставить под сомнение гладкий ответ алгоритма, не принимать его на веру только потому, что «так сказал компьютер».
2. Эмоциональный интеллект — чтение невербалики, управление конфликтами, подлинная эмпатия, которую невозможно симулировать.
3. Умение принимать решения в условиях дефицита данных — там, где у AI просто нет статистики, и приходится действовать на основе интуиции и опыта.
4. Создание смыслов и видение — AI комбинирует уже известное, но только человек способен изобретать принципиально новое.
Будущее – за эффективным взаимодействием AI и человека. AI берет на себя объективную часть: собирает метрики, находит паттерны, строит прогнозы. Человек делает субъективную часть: выносит суждение с учетом контекста, проявляет эмпатию, принимает финальное решение. Новая роль руководителя и HR — это не операционка, а проектирование человеческого опыта, контроль за алгоритмами и защита ценностей компании. Вместе они дают полную картину, которую не способен получить ни один из них по отдельности.
AI не убьет оценку персонала, но сделает ее точнее, быстрее и справедливее — при условии, что последнее слово (интерпретация результатов) всегда остается за человеком.
Чек-лист готовности компании к внедрению ИИ в HR
Оцените свою компанию по 6 ключевым параметрам.
Telegram-канал
Подпишитесь на канал с полезными материалами и профессиональной экспертизой для HR
Информационные продукты на данной странице рассчитаны на возраст 18+
‣ Типология DISC
‣ Эмоциональный интеллект EQ
‣ Оценка 360 градусов
‣ Тесты ценностей. Корпоративная культура
‣ HR функция
‣ Оценка персонала
‣ Оценка компетенций
‣ Профиль должности
‣ Индивидуальный план развития ИПР и Кадровый резерв
‣ Команда
‣ Развитие лидерства и управленческих компетенций
‣ Мотивация
‣ Выгорание
‣ Психодиагностика

461
Время чтения: 12 минут
авторизуйтесь