Sage desenvolve código ético para o desenvolvimento de inteligência artificial

Com a publicação do “Código Ético: desenvolvimento de inteligência artificial para empresas em cinco princípios básicos”, a Sage pretende alertar para as recomendações a ter em conta pela Indústria 4.0.

A Sage pretende apelar a toda a comunidade tecnológica internacional para a importância da implementação ética da Inteligência Artificial (IA) ao nível empresarial. Para isso desenvolveu e publicou o “Código Ético: desenvolvimento de inteligência artificial para empresas em cinco princípios básicos”, cujo objetivo é alertar para as recomendações a ter em conta pela Indústria 4.0, também apelidada de quarta revolução industrial.

“Desenvolver ‘chatbots’ e programas de inteligência artificial que ajudem os nossos clientes é a parte mais simples do nosso trabalho, difícil é gerir todas as dúvidas que esta tecnologia disruptiva gera, pois são amplas e diversificadas. Por este motivo, desenvolvemos a nossa IA de acordo com um conjunto de guias que funcionam como princípios básicos e contribuem para garantir que os nossos produtos são seguros e eticamente corretos”, partilhou Kriti Sharma, vice-presidente do negócio de Bots e Inteligência Artificial da Sage.

Este código de conduta foi desenvolvido durante a criação do programa de aprendizagem automática de IA da Sage, desenhado especificamente para reduzir os processos de gestão financeira de empresas de qualquer dimensão, desde as start-ups às grandes empresas.

Código Ético: Desenvolvimento da inteligência artificial para empresas em cinco princípios básicos

  1. A inteligência artificial deve refletir a diversidade dos utilizadores que serve

Tanto a indústria como a comunidade tecnológica deve desenvolver mecanismos eficazes para filtrar sentimentos e tendências negativas dos dados recolhidos pela IA. Isto servirá para garantir que a IA não memoriza estereótipos de forma errada.

  1. A inteligência artificial deve prestar contas, tal como fazem os utilizadores

Os utilizadores constroem uma relação de confiança com a IA após diversas e significativas interações. Depois de adquirir confiança vem a responsabilidade e a IA tem de ser responsabilizada pelas ações e decisões que fornece, tal como acontece com os seres humanos. Se não aceitamos este tipo de comportamentos de outros profissionais ‘especializados’, porque deveríamos abrir uma exceção para a tecnologia?

  1. Recompensar a inteligência artificial pelos seus progressos

Qualquer sistema de IA que baseie a aprendizagem de acordo com maus exemplos, poderá ser socialmente inadequada. Atualmente, os sistemas de IA que ampliem o seu campo de análise e recolha de dados são a solução para progredirem na sua aprendizagem. Um dos desafios é o desenvolvimento de um mecanismo de recompensa. As medidas de aprendizagem e reforço devem construir-se não apenas no que a IA ou os robots fazem para obter um resultado, mas sim como estas se alinham com os valores humanos para obter esse mesmo resultado.

  1. A inteligência artificial deve garantir a igualdade de condições

As tecnologias sociais, como os assistentes de voz ou os robots, oferecem soluções de acesso rápido, especialmente indicadas para pessoas incapacitadas, seja por problemas de visão, dislexia ou mobilidade reduzida. A comunidade tecnológica empresarial precisa de acelerar o desenvolvimento de novas tecnologias para garantir a igualdade de condições e aumentar o número de talentos disponíveis.

  1. A inteligência artificial irá substituir postos de trabalho, mas também criará novos empregos

Aparecerão novas oportunidades criadas pela robotização de tarefas e é fundamental que os seres humanos estejam preparados para esta nova realidade. Há que ter em conta que a IA e a empresa trabalham em conjunto, para que a equipa se concentre no que é realmente importante: construir relações e cuidar dos clientes.

 

Leia também: “Elon Musk alerta para os perigos da inteligência artificial“.

Comentários

Artigos Relacionados