MIT identifica os principais danos que a IA pode trazer à humanidade

Especialistas do MIT FutureTech identificaram um vasto conjunto de efeitos prejudiciais, cerca de 700, que a inteligência artificial pode causar à humanidade.

Quais são os riscos da Inteligência Artificial?  Esta foi a questão a que um grupo de investigadores do MIT FutureTech (Instituto de Tecnologia de Massachusetts) procurou responder com uma pesquisa que levou ao desenvolvimento de um Repositório de Riscos de IA. Consiste num banco de dados abrangente e dinâmico, no qual estão categorizados, por causa e domínio de risco, de mais de 700 riscos de inteligência artificial (IA) que serão continuamente atualizados para garantir relevância e atualidade.

Perante o aumento desta tecnologia em vários domínios da vida, e apesar das reconhecidas vantagens que esta traz associadas, as preocupações associadas a utilizações maliciosas –  e que envolvem, por exemplo, aspetos relacionados com segurança, preconceito e discriminação, e privacidade-, são grandes e, por isso, o Repositório de Riscos de IA desenvolvido pela equipa de investigadores do MIT FutureTech avalia os riscos potenciais que a tecnologia comporta.

Está organizado em três partes: o AI Risk Database, que captura mais de 700 riscos extraídos de 43 estruturas existentes; a Causal Taxonomy of AI Risks que classifica como, quando e por que esses riscos ocorrem; e por fim a  Domain Taxonomy of AI Risks que classifica esses riscos em sete domínios (por exemplo, “Desinformação”) e 23 subdomínios (por exemplo, “Informações falsas ou enganosas”).

Assim, e num trabalho conjunto com a Universidade de Queensland, a organização sem fins lucrativos Future of Life Institute (organização sem fins lucrativos), da KU Leuven e da start-up de IA Harmony Intelligence  (para analisar bancos de dados académicos e recuperar milhares de documentos relacionados a avaliações de risco de IA), os investigadores do MIT descobriram que as estruturas de terceiros examinadas mencionaram certos riscos com mais frequência do que outros. Por exemplo, mais de 70% das estruturas incluíram implicações de privacidade e segurança da IA, enquanto apenas 44% cobriram desinformação. E enquanto mais de 50% discutiram as formas de discriminação e deturpação que a IA poderia perpetuar, apenas 12% falaram sobre “poluição do ecossistema de informações” — ou seja, o volume crescente de spam gerado pela IA.

As formas pelas quais os sistemas de IA podem falhar e, potencialmente, causar danos é vasta e incluem, por exemplo, o facto da tecnologia deepfake da IA ​​poder tornar mais fácil distorcer a realidade; o risco de criar uma falsa sensação de importância e confiança, em que as pessoas podem superestimar suas capacidades e prejudicar as suas próprias, o que pode levar a uma dependência excessiva da tecnologia; o risco de privar as pessoas do seu livre arbítrio; ou ainda o facto da IA perseguir objetivos que colidam com os interesses humanos.

Comentários

Artigos Relacionados