27/01/26
Em um cenário de constante modernização, como o atual, a Inteligência Artificial (IA) contribui para decisões que moldam carreiras, influenciam promoções e determinam desligamentos. No Departamento de Recursos Humanos (RH), algoritmos passaram de ferramentas de apoio a agentes relevantes na gestão de pessoas.
A implantação da IA pela área de Recursos Humanos pode trazer eficiência, escala e padronização. No entanto, à medida que algoritmos passam a influenciar decisões sensíveis, cresce a necessidade de reflexão sobre limites, governança e responsabilidades no ambiente corporativo.
O desafio não está na utilização da tecnologia em si, mas em como as empresas estão lidando com seus efeitos jurídicos, éticos e de compliance. A relevância do assunto vale a reflexão.
Ferramentas baseadas em algoritmos passaram a apoiar e, em alguns casos, influenciar escolhas tradicionalmente humanas, tais como recrutamento, avaliação de performance, programas de incentivo, movimentações internas e até mesmo demissões.
Na prática, a IA funciona como um filtro sofisticado, capaz de processar grandes volumes de dados em segundos. O problema surge quando esse filtro se distancia dos critérios humanos de decisão, sem inteligibilidade e sem revisão crítica por parte da liderança.
É exatamente nesse ponto que o Direito do Trabalho, a LGPD e a Governança Corporativa se encontram.
O uso de IA na gestão de pessoas pode gerar impactos diretos em diversas frentes estratégicas, destacando-se:
Decisões influenciadas por algoritmos podem ser questionadas judicialmente quando resultam em discriminação, exclusão indireta ou tratamento desigual. A responsabilidade permanece da empresa, ainda que a decisão tenha sido “recomendada” por um sistema.
A LGPD exige finalidade, necessidade e transparência no tratamento de dados pessoais, inclusive no contexto laboral. A introdução de IA amplia significativamente esse desafio, sobretudo quando envolve dados sensíveis, avaliações comportamentais ou decisões automatizadas.
Embora ainda não exista, no Brasil, uma lei específica regulando o uso de IA nas relações de trabalho, o tema está longe de um vazio normativo. O Projeto de Lei – PL nº 2.338/2023, que trata do marco legal da Inteligência Artificial no Brasil, já sinaliza princípios relevantes como transparência, não discriminação, supervisão humana e responsabilização.
Além disso, as demais normas existentes são plenamente aplicáveis ao tema. Entre os pontos mais sensíveis, destacam-se:
Algoritmos aprendem com dados históricos. Portanto, se esses dados refletem desigualdades estruturais, o sistema pode reproduzir (ou intensificar) vieses, ainda que de forma não intencional.
Empregados e candidatos a novos cargos podem questionar os critérios utilizados em processos seletivos, avaliações ou desligamentos. A ausência de clareza sobre o motivo pelo qual alguém foi preterido ou impactado é um fator de risco relevante.
Ferramentas de controle de produtividade e comportamento precisam respeitar limites de privacidade e proporcionalidade, sob pena de caracterizar violação de direitos da personalidade.
Em setembro de 2025, diversos veículos de comunicação noticiaram que um grande banco brasileiro teria passado a utilizar um sistema de IA para monitorar a atividade de seus empregados, incluindo uso do teclado, cliques e navegação, sem comunicação prévia. Com base nesse monitoramento, aproximadamente mil colaboradores foram desligados, sob a alegação de “baixa produtividade”, suscitando questionamentos sobre a conformidade legal e a transparência da ferramenta de vigilância.
Esse episódio reforça a importância de políticas bem definidas, clareza de critérios e supervisão humana. No mesmo sentido, o Ministério Público do Trabalho divulgou uma cartilha sobre “O Uso de Dados Pessoais e Inteligência Artificial na Relação de Trabalho: Proteção, Discriminação, Violência e Assédio Digital”, que reforça a necessidade de transparência, prevenção de vieses e controle humano efetivo sobre sistemas automatizados.
Um dos erros mais comuns na adoção de IA é tratar a revisão humana como um mero “carimbo” final, ao passo que a supervisão precisa ser crítica, rigorosa e documentada.
Revisar não significa apenas validar o resultado, mas questionar: (i) os critérios utilizados, (ii) a coerência das recomendações, (iii) os impactos indiretos sobre grupos específicos e (iv) a aderência às políticas internas e aos valores da empresa.
Sem essa análise, o empregador passará a chancelar decisões automatizadas, deslocando a IA de instrumento de apoio para tomadora de decisões.
Sem necessidade de grandes rupturas, algumas medidas reduzem de forma significativa a exposição jurídica e reputacional:
Mais do que mitigar passivos, essas práticas fortalecem uma cultura organizacional ética, transparente e sustentável.
O uso da IA na gestão de pessoas tende a se intensificar, assim como a sua fiscalização pelos órgãos competentes, incluindo a Justiça do Trabalho e o Ministério Público do Trabalho, que estão cada vez mais atentos a como essas tecnologias impactam as relações de emprego.
No cenário que se desenha, a melhor prática não estará em adotar mais tecnologia, mas em usá-la com critério. Empregadores que tratarem a Inteligência Artificial como instrumento de apoio, e não de substituição silenciosa da decisão humana, reduzirão vulnerabilidades e fortalecerão a governança.
Mais do que discutir inovação, o momento exige escolhas conscientes. A forma como a Inteligência Artificial é incorporada hoje à gestão de pessoas e às empresas de um modo geral definirá os riscos que serão enfrentados nos próximos anos.
A equipe trabalhista Sonia Marques Döbler Advogados estão à disposição para lhes dar o devido suporte ou mais esclarecimentos a respeito do tema aqui abordados.