Por Erica Castelo, Headhunter Internacional e CEO da The Soul Factor
Ao longo dos últimos meses, venho notando nas redes sociais uma avalanche de reclamações de candidatos insatisfeitos com os processos seletivos que participam, frustrados com a experiência impessoal.
Não por coincidência, nunca se falou tanto em processos seletivos que usam inteligência artificial e automatização, visando “agilidade” “eficiência” ou “prevenção ao viés na contratação”; em outras palavras, à discriminação.
Pois bem, existem aqui várias ressalvas.
Sobre o viés, não existe nada que pode ser mais perigoso do que uma máquina decidindo qual o perfil a ser contratado, segundo uma “fórmula de sucesso”. As ferramentas de seleção baseadas em Inteligência artificial analisam vários currículos rapidamente, avaliam as respostas dos candidatos a perguntas escritas e jogos interativos e conduzem entrevistas em vídeo. Fornecedores pregam as ferramentas de contratação de IA como uma forma de erradicar a discriminação, mas especialistas e ativistas alertam que as ferramentas de contratação baseadas em IA são tão tendenciosas quanto os humanos que as treinam.
Consequentemente, especialistas em tecnologia e ativistas alertaram que as ferramentas de contratação de IA podem detectar preconceitos humanos preexistentes, especialmente em áreas como a tecnologia, onde o progresso em direção à diversidade tem sido lento.
Em um relatório publicado em dezembro, pesquisadores da Upturn, uma organização sem fins lucrativos que visa assegurar equidade na tecnologia, destacou como essas suposições podem levar à discriminação não intencional por ferramentas de contratação de IA. Segundo eles, o que pode acontecer naturalmente é você construir um modelo que identifique características comuns de sua força de trabalho atual, que não são diversas. Ou pode refletir, por exemplo, o fato de que os gerentes de contratação tradicionalmente dão preferência a candidatos homens em vez de mulheres.
As ferramentas de contratação de IA têm potencial para parcialidade, mesmo que essa não seja a intenção da empresa, de acordo com Joy Buolamwini, cientista da computação do MIT Media Lab. Buolamwini fundou a Algorithmic Justice League, que realiza pesquisas e defesa do viés da IA. “Mesmo que uma empresa tenha boas intenções, os produtos treinados em dados coletados de funcionários atuais considerados bem-sucedidos podem aprender características discriminatórias que são devidas a traços de identidade em vez de competência para o trabalho”, segundo Buolamwini. “Os dados não são necessariamente neutros.”
Da mesma maneira, é preciso cuidado nas avaliações de “perfil psicológico” (os famosos “testes de personalidade”), pregados por alguns processos de seleção que visam encaixar os candidatos em “caixas de comparação” entendíveis pelo sistema. Mesmo contando com a avaliação humana em algum momento desse processo, a tentação por estabelecer um “perfil correto” de personalidade é enorme. Ao contrário, o que é necessário é entender o potencial e vivências de cada candidato para exercer determinada posição.
Essa obsessão por catalogar pessoas é perigosa, acompanhando civilizações, países e empresas: o ideal de um biótipo, de uma raça, ou de um talento perfeito. Assim como as características físicas, os traços de personalidade e comportamentos podem induzir a escolhas carregadas de preconceitos.
É aí, por exemplo, que pessoas com perfil mais introspectivo, podem entrar em desvantagem na seleção, já que a sociedade moderna privilegia, em geral, as pessoas que tendem a ser mais expansivas. Ou, por exemplo, podem-se assumir estereótipos, como “quem gosta de segurança não assume riscos”, o que pode não ser real. Se o candidato já esteve num ambiente onde aprendeu a assumir riscos calculados ele pode performar, com ainda mais excelência, em ambientes instáveis.
Ainda cabe mencionar a natural condição humana de procurar atender ao ideal esperado. Muitos candidatos procuram dar respostas não necessariamente genuínas para fazer o famoso “fit’”. Isso pode acontecer principalmente em face a perguntas robotizadas por testes ou até por humanos que seguem entrevistas em “script”, do tipo “você fica nervoso em ambientes de pressão?” ou “gosta de trabalhar em times?”. A avaliação pode ficar, então, ainda mais distorcida da realidade.
Enquanto gastamos energia em modelos sofisticados e impressionáveis para definir, mapear, formatar e comparar talentos, a verdade é que nos distanciamos da descoberta de pessoas que saem fora da caixa, que trazem o novo, tirando todos da zona de conforto do que “já funciona”.
Ou seja, a busca por talentos não está na total definição e controle dos processos via padronização. A avaliação, que precisa ser sobretudo humana, deve levar em conta o único, as competências adquiridas nas experiências de cada candidato, na sua história de vida e aprendizados, e como prega Elon Musk, nos “problemas que sabe resolver”. É sobre o que cada um “leva na mochila”, e não a cor ou formato da sua mochila.
Como em todos os aspectos da era digital, o humano deve prevalecer. Em especial no recrutamento, a linha de frente de todo o negócio, o talento humano é quem precisa identificar outros talentos humanos. É preciso muitas doses de qualidade humanas como espírito crítico, intuição, ousadia, flexibilidade, visão, empatia, para encontrar pessoas que possam ir além do convencional e inovar. E isso vai além dos testes e algoritmos.