42% dos candidatos podem ser excluídos por IA em processos seletivos, aponta pesquisa da Heach

Compartilhar

Levantamento com mais de 9 mil currículos mostra risco de exclusões e perda de talentos

A inteligência artificial (IA) é a realidade nos processos de gestão de pessoas no Brasil. Os softwares já são capazes de analisar currículos em segundos, conduzir entrevistas automatizadas e até indicar candidatos para promoções estão cada vez mais presentes nas empresas.
 

Mas, em novo estudo da Heach Recursos Humanos, a empresa revela os riscos dessa automatização: 42% dos candidatos analisados podem ser automaticamente excluídos por sistemas de IA, mesmo sendo altamente qualificados.
 

O levantamento foi realizado com 9.327 currículos de diferentes regiões do país. Entre os principais fatores de exclusão identificados estão a ausência de palavras-chave específicas, a formatação fora do padrão aceito pelo software e o histórico profissional considerado “não linear” pelos algoritmos.

“A inteligência artificial pode contratar, ou até demitir o profissional errado. Nossos dados mostram que quase metade dos talentos corre o risco de não ser sequer visualizada em processos seletivos totalmente automatizados. Isso não é apenas um erro técnico, é um erro estratégico que compromete o futuro das empresas”, afirma Elcio Paulo Teixeira, CEO da Heach.

A pesquisa mostra ainda que 45% dos profissionais acima de 45 anos têm menor chance de aprovação automática, mesmo com ampla experiência. Além disso, 41% dos currículos femininos apresentaram menor aderência aos filtros de algoritmos quando comparados a currículos masculinos da mesma área.
 

Outro dado relevante é que apenas 18% dos candidatos classificados pela IA demonstraram, em entrevistas presenciais, o perfil comportamental mais alinhado à cultura da empresa.

“Quando uma máquina avalia apenas palavras-chave, ignora fatores decisivos como resiliência, criatividade, adaptabilidade e visão de futuro. Ou seja, exatamente aquilo que diferencia profissionais medianos de talentos estratégicos”, completa Teixeira.
 

Apesar de parecerem imparciais, os algoritmos não estão livres de erros ou preferências. O estudo da Heach mostrou que profissionais de universidades menos conhecidas tiveram 30% menos chances de serem selecionados pelos filtros automáticos. Já candidatos de regiões periféricas ou cidades menores foram excluídos 25% mais vezes do que candidatos de grandes capitais.

“A tecnologia é poderosa, mas não é neutra. Se não houver supervisão humana, a IA apenas amplifica preconceitos e reduz a diversidade dentro das empresas”, alerta o CEO.
 

Para a Heach, a inteligência artificial deve ser usada como ferramenta de apoio, nunca como substituta da análise humana. “Precisamos de algoritmos que agilizem a triagem, mas a decisão final deve ser sempre de pessoas, com base em entrevistas estruturadas, avaliações comportamentais e visão estratégica. A empresa que confiar apenas na IA corre o risco de perder talentos valiosos e comprometer sua reputação no mercado”, conclui Teixeira.