Depois de um longo processo legislativo, o Regulamento Inteligência Artificial (doravante RIA) – Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho de 13 de junho de 2024 – foi, no dia 12.07.2024, publicado em Jornal Oficial da União Europeia, configurando o primeiro diploma do género do mundo. O RIA entrará em vigor em 01.08.2024 e será aplicável a partir de 02.08.2026, com algumas exceções para disposições específicas (artigo 113.º).
O Regulamento é resultado de na última década se ter colocado em evidência o impacto social, político e económico da Inteligência Artificial (IA). Da consciencialização da enorme capacidade transformativa da IA, a Europa reconheceu a necessidade e assumiu o compromisso de criar uma resposta regulativa, capaz de assegurar um desenvolvimento tecnológico e a promoção da adoção de uma IA integrada no respeito pelos valores da União e da Carta dos Direitos Fundamentais e, portanto, centrada no ser humano, de confiança, assegurando simultaneamente um elevado nível de proteção da saúde, da segurança, a democracia, o Estado de direito e a proteção do ambiente, contra os efeitos nocivos dos sistemas de IA.
Nos termos do RIA, por “sistema de IA” entende-se “um sistema baseado em máquinas concebido para funcionar com níveis de autonomia variáveis, e que pode apresentar capacidade de adaptação após a implantação e que, para objetivos explícitos ou implícitos, e com base nos dados de entrada que recebe, infere a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais”. Ademais, o RIA procura igualmente prever um regime jurídico distinto para os “sistemas de IA de finalidade geral” i. e. “com a capacidade de servir para diversas finalidades, tanto para utilização direta como para integração noutros sistemas de IA” e de que é exemplo o famoso ChatGPT.
Não obstante o RIA estabelecer um conjunto de “regras harmonizadas” as quais “deverão aplicar-se em todos os setores e, em consonância com a abordagem do novo regime jurídico”, as mesmas “não deverão prejudicar a legislação da União em vigor, nomeadamente em matéria de proteção de dados, (…) emprego, proteção dos trabalhadores (…)”. Assim, e no que ao contexto laboral concerne, o RIA “não impede a União nem os Estados-Membros de manterem ou introduzirem disposições legislativas, regulamentares ou administrativas mais favoráveis para os trabalhadores em termos de proteção dos seus direitos no que diz respeito à utilização de sistemas de IA por empregadores, nem de incentivarem ou permitirem a aplicação de convenções coletivas mais favoráveis para os trabalhadores” (artigo 2.º, n.º 11).
O RIA não deve, portanto: i) “ (…) afetar o direito da União em matéria de política social nem a legislação laboral nacional, que seja conforme com o direito da União, no que diz respeito ao emprego e às condições de trabalho, incluindo a saúde e a segurança no trabalho e a relação entre empregadores e trabalhadores”; ii) “prejudicar o exercício dos direitos fundamentais reconhecidos pelos Estados-Membros e a nível da União, incluindo o direito ou a liberdade de fazer greve ou a liberdade de realizar outras ações abrangidas pelos sistemas específicos de relações laborais dos Estados-Membros, os direitos de negociação, de celebração e execução de convenções coletivas, ou de realização de ações coletivas de acordo com o direito nacional”; iii) “afetar as disposições destinadas a melhorar as condições de trabalho nas plataformas digitais estabelecidas numa Diretiva do Parlamento Europeu e do Conselho relativa à melhoria das condições de trabalho nas plataformas digitais” (considerando 9).
Secundando JESÚS R. MERCADER UGUINA, o RIA assenta a sua atuação no que poderíamos chamar de “triângulo de ouro”: abordagem baseada no risco, garantias e responsabilidades. Partindo de um conceito de “risco”, definido como “a combinação da probabilidade de ocorrência de danos com a gravidade desses danos”, o RIA estabelece uma hierarquia de riscos em função da utilização da IA e, com base nas categorias elencadas, define um conjunto de obrigações cujas projeções no local de trabalho são evidentes.
O que se traduz, no fundo, em os sistemas de IA que apresentem apenas um risco limitado estarem sujeitos a obrigações de transparência muito ligeiras, ao passo que os sistemas de IA de risco elevado serão autorizados, embora sujeitos a um conjunto de requisitos e obrigações para obterem acesso ao mercado da UE. Os sistemas de IA podem ainda ser proibidos na UE quando o seu risco seja considerado inaceitável. No fundo, a premissa é a de que quanto maior for o risco de causar danos à sociedade, mais rigorosas serão as regras.
Assim, e atentando novamente ao contexto laboral, do elenco de práticas de IA proibidas, destaca-se “a colocação no mercado, a colocação em serviço para esta finalidade específica ou a utilização de sistemas de IA para inferir emoções de uma pessoa singular no local de trabalho (…), exceto nos casos em que o sistema de IA se destine a ser instalado ou introduzido no mercado por razões médicas ou de segurança” (artigo 5.º, n.º 1, al. f)) e “a colocação no mercado, a colocação em serviço para este fim específico, ou a utilização de sistemas de categorização biométrica que classifiquem individualmente as pessoas singulares com base nos seus dados biométricos para deduzir ou inferir a sua raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual (…)” (artigo 5.º, n.º 1, al. g)).
Do elenco de sistemas de IA considerados de alto risco, destacam-se os “sistemas de IA concebidos para serem utilizados no recrutamento ou na seleção de pessoas singulares, nomeadamente para colocar anúncios de emprego direcionados, analisar e filtrar candidaturas a ofertas de emprego e avaliar os candidatos” e os “sistemas de IA concebidos para serem utilizados na tomada de decisões que afetem os termos das relações de trabalho, a promoção ou a cessação das relações contratuais de trabalho, na atribuição de tarefas com base em comportamentos individuais, traços ou características pessoais, ou no controlo e avaliação do desempenho e da conduta de pessoas que são partes nessas relações” (Anexo III, n.º 4).
Chama-se ainda à atenção para o dever que decorre do artigo 26.º, n.º 7, o qual densifica o disposto no artigo 106.º, n.º 3, alínea s), do Código do Trabalho: “antes da colocação em serviço ou da utilização de um sistema de IA de risco elevado no local de trabalho, os responsáveis pela implantação que sejam empregadores devem informar os representantes dos trabalhadores e os trabalhadores afetados de que estarão sujeitos à utilização do sistema de IA de risco elevado. Essas informações devem ser prestadas, se for o caso, em conformidade com as regras e os procedimentos estabelecidos na legislação e nas práticas da União e nacionais em matéria de informação dos trabalhadores e dos seus representantes.”.
Quanto ao regime sancionatório, a título exemplificativo, para a realização de práticas proibidas de IA, o RIA fixa “coimas num montante que pode ir até 35 000 000 EUR ou, se o infrator for uma empresa, até 7 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado” (artigo 99.º, n.º 3).
Atento o brevemente exposto, é tempo de compreender os requisitos do RIA e de atuar em conformidade com os mesmos.
Rute Gonçalves Janeiro @ DCM |Littler