A inteligência artificial (IA) está a revolucionar o mercado de trabalho, permitindo às empresas otimizar processos de recrutamento e gestão de recursos humanos (RH). No entanto, com esta inovação surgem novas e importantes implicações legais que as empresas devem ter em conta, nomeadamente no que respeita ao cumprimento das leis de proteção de dados, igualdade de oportunidades e transparência nas decisões automatizadas.
1. Proteção de Dados Pessoais e Privacidade
O Regulamento Geral sobre a Proteção de Dados (RGPD) da União Europeia, adotado pelo Regulamento (UE) 2016/679, é um pilar fundamental para garantir a privacidade e segurança dos dados pessoais tratados pelas empresas. A nível nacional, a Lei n.º 58/2019, que assegura a execução do RGPD em Portugal, complementa e detalha algumas dessas disposições.
Nos processos de recrutamento, a IA processa uma grande quantidade de dados pessoais, o que exige uma conformidade rigorosa com o RGPD. Entre as obrigações principais destacam-se:
• Transparência no tratamento dos dados: As empresas devem informar os candidatos de forma clara e acessível sobre como os seus dados estão a ser recolhidos, armazenados e analisados. Qualquer algoritmo utilizado deve ser explicado de forma compreensível.
• Consentimento informado: Para dados sensíveis ou para finalidades que ultrapassem as estritamente necessárias para o processo de recrutamento, é necessário obter o consentimento explícito dos candidatos.
• Direito à eliminação e à retificação dos dados: Os candidatos têm o direito de solicitar a eliminação ou correção de informações incorretas ou irrelevantes que estejam a ser processadas pela IA.
2. Discriminação e Igualdade de Oportunidades
A Carta dos Direitos Fundamentais da União Europeia, juntamente com a Lei n.º 93/2017 que estabelece o regime jurídico da igualdade no acesso ao emprego e a Lei nº 3/2024, a qual cria Comissão para a Igualdade e contra a Discriminação Racial, exige que as empresas promovam a igualdade de oportunidades e combatam a discriminação. A utilização de IA nos processos de recrutamento pode, inadvertidamente, perpetuar ou amplificar desigualdades, especialmente se os dados com os quais os algoritmos foram treinados refletirem preconceitos históricos.
• Avaliação periódica de algoritmos: As empresas devem realizar auditorias regulares aos sistemas de IA para garantir que não estão a introduzir discriminação de forma direta ou indireta com base em características como género, etnia, idade, ou estado civil.
• Responsabilidade do empregador: O empregador é legalmente responsável por qualquer decisão discriminatória que resulte da utilização de IA, sendo fundamental garantir que a tecnologia utilizada cumpre rigorosamente as normas de igualdade.
3. Transparência e Decisões Automatizadas
O RGPD estabelece no seu artigo 22º que os indivíduos têm o direito de não estarem sujeitos a decisões baseadas exclusivamente em tratamento automatizado, incluindo a definição de perfis, quando essas decisões produzam efeitos jurídicos ou afetem significativamente a pessoa em causa.
• Direito à explicação: As empresas devem estar preparadas para fornecer uma explicação clara e acessível sobre como uma decisão automatizada foi tomada. A opacidade dos algoritmos pode ser um risco legal se os candidatos não conseguirem entender os critérios utilizados para rejeitar ou aceitar uma candidatura.
• Revisão humana: O artigo 22º do RGPD também prevê a possibilidade de intervenção humana nas decisões automatizadas. As empresas devem assegurar que, quando apropriado, uma pessoa esteja envolvida na revisão de decisões automatizadas, mitigando erros ou injustiças.
4. Auditorias e Compliance
Para assegurar a conformidade com as leis e regulamentos, as empresas devem adotar uma abordagem proativa na gestão da IA em processos de RH:
• Auditorias regulares de IA: É essencial que a tecnologia seja auditada regularmente para garantir que está em conformidade com a legislação aplicável e que os algoritmos não introduzem distorções ilegais.
• Implementação de códigos de ética e políticas internas: As empresas devem estabelecer políticas claras que definam as melhores práticas para a utilização de IA, em alinhamento com o Código do Trabalho e as normas europeias de proteção de dados e igualdade.
5. Evolução Legislativa: O Impacto do AI Act
Com a crescente utilização de tecnologias de inteligência artificial, a União Europeia adotou um quadro jurídico pioneiro para regular o uso da IA: o Regulamento da União Europeia sobre Inteligência Artificial (AI Act).
Este regulamento, que entrou recentemente em vigor, visa estabelecer regras claras para o desenvolvimento, comercialização e utilização da IA na Europa, com o objetivo de garantir uma utilização segura e ética dessas tecnologias.
O AI Act é particularmente relevante para empresas que utilizam IA em processos de recrutamento e gestão de recursos humanos, classificando certos sistemas de IA como “de alto risco”. Isto inclui ferramentas de IA usadas para:
• Filtrar candidatos a emprego;
• Avaliar o desempenho de trabalhadores;
• Decisões automatizadas que possam impactar significativamente a vida profissional dos colaboradores.
Classificação de Risco e Obrigações Legais
O AI Act divide os sistemas de IA em quatro categorias, com base no seu potencial de impacto nos direitos e segurança dos cidadãos:
– Risco Mínimo (Minimal Risk)
A maioria dos sistemas de IA, como sistemas de recomendação automatizada (exemplo: plataformas de streaming) ou filtros de spam, enquadram-se nesta categoria. Estes sistemas são considerados de baixo risco e, por isso, não estão sujeitos a obrigações específicas no âmbito do AI Act. As empresas podem, no entanto, adotar códigos de conduta voluntários para garantir maior transparência e segurança.
– Risco de Transparência Específico (Specific Transparency Risk)
Esta categoria abrange sistemas como chatbots, que devem informar os utilizadores que estão a interagir com uma máquina, e sistemas que geram conteúdos artificiais (exemplo: deepfakes). A IA usada nestes contextos deve ser identificada como tal, e os utilizadores precisam de ser informados de quando estão a interagir com biometria ou sistemas de reconhecimento emocional.
– Risco Elevado (High Risk)
Sistemas de IA de alto risco, que podem impactar significativamente os direitos fundamentais, estão sujeitos a requisitos rigorosos. Nesta categoria incluem-se, por exemplo, os sistemas de IA usados para recrutamento e gestão de talento.
As empresas que utilizam IA de alto risco devem garantir:
• Avaliação de Conformidade: Antes de poderem ser implementados, estes sistemas devem ser submetidos a um processo de avaliação de conformidade para garantir que cumprem os requisitos legais, como a mitigação de riscos de discriminação e a transparência.
• Registos e Documentação: As empresas devem manter registos detalhados sobre o funcionamento dos seus sistemas de IA. Estes registos incluem dados sobre o processo de tomada de decisão, parâmetros de desempenho e avaliações de impacto. O AI Act exige que essa documentação esteja sempre disponível para auditorias ou investigações por parte das autoridades competentes.
• Supervisão Humana: O regulamento enfatiza a necessidade de supervisão humana significativa em sistemas de IA que possam tomar decisões automatizadas. Isto significa que as empresas devem garantir que um ser humano pode intervir e alterar ou corrigir decisões quando necessário, mitigando os riscos de injustiças ou erros.
• Garantia de Transparência: O AI Act exige que os candidatos sejam informados quando estão a ser avaliados por sistemas de IA. Este princípio visa assegurar que as pessoas estão cientes de que os seus dados estão a ser processados por algoritmos e que possam exercer os seus direitos, como o direito à explicação.
Irão existir reguladores nacionais irão supervisionar a conformidade dos sistemas de IA de alto risco, como os usados em processos de recrutamento, com o objetivo de proteger os direitos dos trabalhadores e candidatos.
– Risco Inaceitável (Unacceptable Risk)
Os sistemas de IA que representam um risco inaceitável aos direitos fundamentais são proibidos. Estes incluem sistemas que manipulam comportamentos humanos, sistemas de “social scoring” usados por governos ou empresas e algumas aplicações de policiamento preditivo. O AI Act proíbe explicitamente a utilização de IA em qualquer contexto que possa comprometer a liberdade e a dignidade das pessoas, incluindo certas formas de reconhecimento emocional no local de trabalho.
Próximos Passos e Implementação Progressiva do AI Act
O AI Act foi adotado em 2024 e estabelece um novo quadro regulatório para a utilização da inteligência artificial na União Europeia. No entanto, o regulamento prevê uma implementação faseada, permitindo que as empresas e os Estados-membros se adaptem gradualmente às novas exigências.
Datas Chave para a Aplicação do AI Act
• 2 de agosto de 2026: A maioria das regras do AI Act entrará em vigor a partir desta data. Isso inclui as exigências para os sistemas de IA classificados como de risco elevado, como aqueles utilizados para recrutamento e gestão de recursos humanos.
• Risco Inaceitável: As proibições relacionadas com sistemas de IA que apresentam um risco inaceitável, ou seja, que constituem uma ameaça clara aos direitos fundamentais, serão aplicadas seis meses após a publicação do regulamento. Ou seja, até início de 2025, as proibições já estarão em vigor.
• Modelos de IA de Propósito Geral: As regras específicas para os chamados modelos de IA de propósito geral — sistemas que podem ser aplicados em diversas finalidades, como os modelos de grandes linguagens — começarão a ser aplicadas 12 meses após a adoção do AI Act, ou seja, em 2025.
AI Pact: Uma Ponte para a Transição
Para facilitar a transição durante este período de adaptação, a Comissão Europeia lançou o AI Pact, uma iniciativa que convida os responsáveis pelo desenvolvimento de IA a adotarem voluntariamente algumas das obrigações-chave do AI Act antes dos prazos legais. Esta abordagem visa:
• Promover uma implementação mais célere das boas práticas de IA;
• Incentivar as empresas a estarem em conformidade desde o início, garantindo a segurança e a confiança nos seus sistemas de IA;
• Estimular a inovação responsável e preparar as empresas para as novas exigências regulatórias.
Desenvolvimento de Diretrizes e Padrões
A Comissão Europeia também está a trabalhar em diretrizes que irão clarificar e detalhar a implementação do AI Act, assegurando que as suas disposições são corretamente aplicadas pelos diversos setores. Estas diretrizes incluirão:
• A definição de padrões e códigos de prática, através de instrumentos de co-regulação, com a colaboração dos principais stakeholders da área.
• A primeira chamada para manifestação de interesse para a criação do Código de Boas Práticas da IA de Propósito Geral já foi aberta. Além disso, haverá uma consulta pública, permitindo que todos os interessados tenham a oportunidade de contribuir para a elaboração deste código de conduta.
6. A Importância de Consultoria Jurídica Especializada
A entrada em vigor do AI Act representa uma mudança significativa no panorama regulatório para empresas que utilizam IA em recrutamento e RH, com novos desafios e obrigações legais.
A conformidade com o regulamento não deve ser vista apenas como um requisito legal, mas também como uma oportunidade para as empresas demonstrarem o seu compromisso com práticas de contratação éticas e transparentes.
É essencial garantir que os sistemas de IA estão em conformidade com o regulamento para evitar sanções podem chegar a 7% do volume de negócios anual global por violações de aplicações de IA proibidas, até 3% por violações de outras obrigações e até 1,5% por fornecer informações incorretas.
À medida que as implicações legais da IA continuam a evoluir, contar com um advogado especializado torna-se não só uma recomendação, mas uma necessidade para qualquer empresa que pretenda adotar ferramentas de IA com segurança.
Não hesite em procurar aconselhamento jurídico especializado para garantir que a sua empresa não só cumpre com o AI Act, mas também aproveita ao máximo as oportunidades oferecidas pela IA de forma ética e legalmente segura.