Europa quer regulamentar o uso da inteligência artificial no trabalho antes do final do ano

Diferentes sistemas de inteligência artificial (IA) já violaram direitos laborais em Portugal, França, Alemanha ou Holanda, segundo as centrais sindicais de todo o continente que defendem que a UE deve promulgar duas normas há muito esperadas: a “Lei Rider” e o regulamento de IA.

A tecnologia já domina vários aspetos do dia a dia. Desde fazer compras na Internet, consumir conteúdo audiovisual, conversar com amigos ou saber mais sobre eles nas redes sociais e até encontrar um parceiro através das populares aplicações de relacionamentos.

Por isso, era de se esperar que os sistemas de inteligência artificial (IA) chegassem ao local de trabalho, o que tem sido destacado pelas polémicas que envolvem gigantes como a Amazon e os seus motoristas, obrigados a urinar em garrafas para serem o mais eficientes possível aos olhos da máquina, ou os motoristas das plataformas como Glovo ou Deliveroo.

Espanha introduziu um dos primeiros mecanismos jurídicos do mundo para lidar com o trabalho não controlado por algoritmos. O Governo da Espanha aprovou, em Conselho de Ministros, a “Lei Riders” que regulará a situação laboral dos condutores de entregas, de modo a que deixem de ser falsos independentes e permitirá aos sindicatos conhecer os algoritmos que regem a sua rotina de trabalho.

“Li muitas declarações de empresários a dizerem que isso é uma interferência na capacidade de competir e no segredo do negócio”, lamenta José Varela, responsável de Digitalização da UGT, em Espanha. “Não queremos aceder aos algoritmos que os ajudam a manter certas estratégias de negócios ou que digam com quais clientes  devem lidar”, alerta.

Ao Business Insider Varela explica que o que as centrais sindicais sugeriram ao Governo espanhol, “e penso que com sucesso”, é que se for utilizada uma ferramenta é necessário controlar “e verificar” que esta ferramenta “funciona bem”. “Não pode haver uma aparência de verificação. Não podemos permitir que os computadores tomem decisões e um ser humano siga o que a máquina diz. Isso tem que ser verificado e verificado”, explica.

Na Europa, os sindicatos estão a liderar o debate. A UGT tem publicado várias análises para se posicionar contra “a implementação indiscriminada e massiva de algoritmos nas relações de trabalho”, pois considera que “as decisões algorítmicas não podem ser deixadas ao critério das empresas”.

“Os perigos que representam estas tecnologias estão mais do que comprovados, razão pela qual é necessário um novo quadro legislativo para regular a sua implementação e execução, designando responsabilidades e obrigações”, destaca a UGT em Espanha num relatório intitulado Decisões algorítmicas nas relações laborais.

Mas, ao mesmo tempo, a Comissão Europeia está a trabalhar na sua proposta de regulamento para legislar a inteligência artificial. Uma iniciativa que a UGT valoriza. “Pela primeira vez, e a pedido da UGT, qualquer tipo de aplicação de algoritmo é catalogada em centros de trabalho de risco grave. Isso significa que o empregador terá de saber que corre o risco máximo ao poder tomar decisões injustas”, revela José Varela.

Trata-se de aplicar “um princípio de precaução”. De fato, a proposta de regulamentar a IA na Europa contempla vários cenários de menor a maior risco que os algoritmos podem causar.

O período de consulta com empregadores e sindicatos europeus durou seis semanas até ao início de maio. Data a partir da qual a Comissão Europeia passou a analisar as propostas dos agentes sociais. Bruxelas planeou mais um período de consultas adicionais, caso as empresas e os trabalhadores não cheguem a acordo, para posteriormente aprovar a lei europeia do emprego nas plataformas no final do ano.

Casos de má conduta em França, Portugal, Alemanha e Holanda
A utilização de IA tem gerado conflitos em vários países da UE, como é o caso da multinacional francesa de atendimento ao cliente Teleperformance, da TAP ou da empresa de veículos de transporte com condutor (VTC) Ola nos Países Baixos.

A UNI Europa aponta que os sindicatos franceses têm criticado a análise de voz usada pela Teleperformance. “O software CallMiner que utiliza mede as emoções do cliente e do trabalhador e, desde o seu lançamento, os colaboradores franceses asseguram que estão a receber formação sobre as emoções”, afirmando que não há transparência sobre o funcionamento deste software e os seus possíveis riscos.

Entretanto, no nosso país o Sindicato Nacional do Pessoal de Voo da Aviação Civil, que representa os trabalhadores do setor aéreo português, denunciou que a TAP utiliza um algoritmo para definir quais das faltas dos seus colaboradores são ou não justificadas, o que causou a despedimento de um trabalhador que se encontrava em licença após a morte do irmão e do filho na onda de incêndios em 2017.

Também em Nuremberg, as procuras foram iniciadas nos escritórios da H&M por violação das normas alemãs de proteção de dados: a empresa criou um “sistema de registo de informações detalhadas dos funcionários”. Como resultado, a empresa teve acesso a informações sobre os seus trabalhadores, desde questões familiares até crenças religiosas.

Quanto à Ola, um tribunal de Amesterdão emitiu uma decisão em março que obriga a operadora de VTC a dar aos trabalhadores acesso aos seus algoritmos, após ter sido demonstrado que a empresa utilizou o seu sistema automatizado para reduzir os lucros de vários motoristas.

Também a Uber foi obrigada a dar acesso aos seus algoritmos a dois dos seus funcionários no Reino Unido e em Portugal, após bloquear as suas contas sem motivo, avançou o Financial Times.

Comentários

Artigos Relacionados