O Gartner prevê que até 2023, mais de um em cada dez funcionários procurará enganar os sistemas de inteligência artificial (IA) usados para medir o comportamento e a produtividade dos funcionários. Esses sistemas tiveram um aumento significativo no uso na esteira da pandemia COVID-19.
"Muitas empresas estão fazendo uma mudança permanente para o trabalho remoto em tempo integral ou parcial, o que pode ser caro e exigir mudanças culturais", disse Whit Andrews, distinto vice-presidente de pesquisa do Gartner. "Para culturas de gestão acostumadas a depender da observação direta do comportamento dos funcionários, o trabalho remoto fortalece o mandato de monitorar digitalmente a atividade do trabalhador, em alguns casos por meio de IA.
"Assim como vimos com todas as tecnologias destinadas a restringir seus usuários, os funcionários descobrirão rapidamente as lacunas nas estratégias de vigilância baseadas em IA. Eles podem fazer isso por vários motivos, como no interesse de cargas de trabalho mais baixas, melhor remuneração ou simplesmente rancor. Alguns podem até ver truques em ferramentas de monitoramento baseadas em IA como mais um jogo a ser vencido do que desrespeitar uma métrica que a administração tem o direito de saber. "
As organizações estão usando sistemas habilitados para IA para analisar o comportamento do trabalhador da mesma forma que a IA é usada para entender compradores, clientes e membros do público. Essas ferramentas fornecem registro de atividades básicas com alertas ou, em versões mais sofisticadas, podem tentar detectar ações positivas ou mau comportamento por meio de análise multivariável.
Muitos empregadores usam sistemas de monitoramento de produtividade, apesar de uma alta porcentagem de trabalhadores achar essas ferramentas desagradáveis. Mesmo antes da pandemia, a pesquisa do Gartner mostrou que os trabalhadores temiam novas tecnologias usadas para rastrear e monitorar hábitos de trabalho. À medida que essas ferramentas se tornam mais prevalentes, o Gartner prevê que as organizações enfrentarão cada vez mais trabalhadores que procuram evitá-las e oprimi-las.
Os trabalhadores podem procurar lacunas onde as métricas não capturam a atividade, a responsabilidade não é clara ou a IA pode ser enganada gerando dados falsos ou confusos. Essas atividades já foram observadas em organizações que priorizam o digital; por exemplo, motoristas de carona às vezes trabalham para dois serviços diferentes simultaneamente, como forma de maximizar ganhos pessoais.
"Os líderes de TI que estão pensando em implantar ferramentas de monitoramento de produtividade habilitadas para IA devem examinar de perto as fontes de dados, o design da experiência do usuário e o caso de uso inicial pretendido para essas ferramentas antes de investir", disse o Sr. Andrews. "Determine se o propósito e o escopo da coleta de dados auxiliam os funcionários a fazer seu melhor trabalho. Para aqueles que decidirem investir, certifique-se de que a tecnologia está sendo implementada de forma ética, testando-a em relação a um conjunto-chave de princípios de design centrados no ser humano.