Os responsáveis pela área de RH deverão liderar suas organizações em tomada de decisões importantes sobre o uso ético e responsável dos dados dos funcionários e da inteligência artificial.

Evitar conscientemente o uso indevido de dados e o viés algorítmico será fundamental para o sucesso da análise de talentos e dos processos automatizados de recrutamento.

Quando pensamos sobre como a tecnologia está mudando a forma como as pessoas trabalham e como as organizações as gerenciam, uma série de questões vêm imediatamente à mente, como enormes lacunas de habilidades, automação e demanda crescente por especialistas em ciência de dados e aprendizado de máquina.

À medida que novas tecnologias como inteligência artificial (IA) transformam todas as organizações e talvez todas as funções nos próximos anos, os departamentos de RH trão um trabalho difícil para eles: requalificar a força de trabalho, atrair talentos valiosos e preparar gerentes para liderar em um ambiente de trabalho cada vez mais automatizado.

Essa conversa sobre o futuro do trabalho muitas vezes ignora o que isso significa para o RH em seu papel de administrador de práticas éticas. Novas tecnologias, especialmente big data e IA, apresentam uma série de desafios éticos sem precedentes para os empregadores, e a pesquisa do Gartner mostra que enfrentar esses desafios será uma das tarefas mais importantes de RH na próxima década.

Este artigo é baseado em uma pesquisa realizada pelo Gartner, todos os insights citados fazem parte do paper: Data and AI Ethics Will Shape HR’s Role in the Future of Work.

 

Desafios Éticos

A maioria desses dilemas éticos emergentes diz respeito aos dados dos funcionários: o que você coleta, como os coleta e como os usa. À medida que os líderes de RH dedicam cada vez mais orçamento à análise de talentos, é preciso encontrar um equilíbrio entre gerar valor para sua organização e proteger a privacidade e a dignidade dos funcionários, bem como se proteger contra o preconceito algorítmico.

Às vezes, os dados que você coleta sobre seus funcionários dirão coisas que eles não querem que você saiba – ou coisas que você não quer saber.

O que você faz, por exemplo, se você coleta dados agregados de saúde de funcionários como parte de um programa de bem-estar por meio do qual, inadvertidamente, descobre que uma determinada funcionária pode estar grávida? E se os dados sugerirem que alguns de seus funcionários estão usando drogas ilegais fora do trabalho? E se, ao extrair dados de análises de sentimento das mídias sociais dos funcionários, você descobrir evidências de má conduta sexual?

Esses não são cenários hipotéticos, são situações da vida real que os empregadores já tiveram que enfrentar. A menos que você abandone totalmente a análise de talentos, o que nenhuma organização pode se dar ao luxo de fazer, seu programa inevitavelmente irá revelar informações sobre as quais você é obrigado (por exemplo, alegações de má conduta) ou proibido (por exemplo, gravidez) de agir.

 

Como as legislações tratam o assunto

A lei tem demorado para alcançar a tecnologia neste campo, mas as leis e regulamentos em muitos países protegem certos tipos de dados, como dados de saúde, enquanto os governos estão começando a criar proteções de privacidade digital específicas que podem restringir a coleta e o uso de dados do funcionário.

Organizações europeias e multinacionais já estão familiarizadas com o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, que, após implementação, contém algumas das proteções de privacidade de dados mais rígidas do mundo.

A lei brasileira de proteção de dados pessoais (LGPD) também entrou em vigor e, apesar buscar ter um caráter mais educativo no início, logo terá de punir os excessos cometidos.

Os novos regulamentos são ainda mais rígidos. O California Consumer Privacy Act (CCPA) vai além da GDPR e da LGPD para cobrir dados domésticos e individuais. Embora a CCPA tenha sido alterada para não cobrir a coleta de dados pessoais de candidatos a empregos ou funcionários por um ano, ainda não se sabe como a Califórnia irá regulamentar essas informações.

 

Segurança da Informação

Um cenário jurídico em constante mudança não é o único motivo pelo qual os líderes de RH precisam ter um conhecimento sólido de como suas organizações lidam com os dados dos funcionários. Também há dúvidas sobre segurança e confiança de dados.

O Relatório de Segurança no Local de Trabalho de 2019 da Dell descobriu recentemente que 29% dos líderes de negócios em todo o mundo não estavam confiantes nas habilidades de suas organizações para proteger os dados dos funcionários, enquanto 49% disseram que “acreditam que sua organização terá dificuldades para provar sua confiabilidade nos próximos cinco anos”.

Para ganhar a confiança dos responsáveis pelo negócio (para não mencionar a dos funcionários), o RH precisará provar que pode usar os dados dos funcionários de forma responsável e protegê-los contra roubo e perda – tendo em mente que o RH é o principal alvo de ataques cibernéticos em empreendimentos.

 

Viés Algorítmico

A outra grande armadilha ética que o RH deve observar é o viés algorítmico. Muitas organizações estão implementando tecnologias baseadas em IA no recrutamento e gerenciamento de desempenho.

Um ponto-chave de venda dessas soluções tecnológicas é que elas podem produzir avaliações mais objetivas de candidatos e funcionários, reduzindo o impacto prejudicial dos preconceitos humanos.

No entanto, como vimos nos últimos anos, existem várias maneiras pelas quais um processo de tomada de decisão algorítmico “objetivo” pode produzir resultados tendenciosos. Os processos de avaliação de desempenho ou potencial, elaborados por seres humanos, podem conter preconceitos implícitos que prejudicam diversos funcionários.

Os dados históricos usados para treinar IA também podem ser tendenciosos. Se os candidatos aprovados no passado eram predominantemente brancos e homens, uma IA de sourcing poderia inadvertidamente aprender a ignorar mulheres e minorias.

Esses problemas podem surgir mesmo que o algoritmo não considere nenhuma característica legalmente protegida: um sistema de sourcing que busca candidatos por geografia, por exemplo, pode produzir resultados preconceituosos racialmente.

Considere também os riscos das plataformas de entrevista por vídeo com tecnologia de IA que avaliam automaticamente os candidatos com base em sua linguagem corporal, expressões faciais e tom de voz.

Os críticos dessa tecnologia, que já está em uso, temem que ela possa introduzir preconceitos ocultos, principalmente se não for treinada em um conjunto suficientemente diversificado de rostos e corpos. Dado que o significado da linguagem corporal e das expressões faciais varia amplamente entre as culturas, esta consideração
é particularmente saliente para organizações globais.

 

Conclusão

Ignorar esses desafios éticos pode levar uma organização a uma situação difícil, mas os riscos de uso indevido de dados não se limitam de forma alguma a multas e litígios. No mercado competitivo de hoje para talentos qualificados, o RH tem a responsabilidade de criar uma experiência segura e de suporte para funcionários e candidatos, tanto para proteger a marca de empregador da organização quanto para ajudar os funcionários a ter o melhor desempenho.

De acordo com o Gartner, os funcionários não são tão resistentes a ter seus dados coletados quanto você imagina – desde que seu empregador seja transparente sobre como eles estão usando esses dados e possam demonstrar com credibilidade aos funcionários que eles próprios podem se beneficiar deles.

Estabelecer essa credibilidade é fundamental para o sucesso de qualquer programa de análise de talentos, portanto, uma estratégia organizacional para dados e ética de IA não é apenas “necessária”.

Na próxima década, conforme essas tecnologias se tornam fundamentais para a forma como trabalhamos, o RH terá a obrigação ética (e possivelmente legal) de construir essa estratégia, o que também representa uma enorme oportunidade de agregar valor.

Categoria:

Carreira,

Última Atualização: maio 8, 2024