Decisões tomadas com IA são menos cautelosas e mais imprecisas, diz estudo

Um estudo recente revelou que os executivos que recorreram ao ChatGPT para prever o valor das ações da Nvidia tornaram-se mais otimistas, confiantes e menos precisos do que aqueles que discutiram o tema com colegas, evidenciando como a autoridade e detalhe das respostas da IA podem enviesar o pensamento crítico.

Com o avanço da Inteligência Artificial (IA), muitas organizações estão a integrar  a tecnologia nos mais diversos ambientes de trabalho. Estudos iniciais mostram que a IA pode, de facto, melhorar o desempenho de funcionários em tarefas simples ou repetitivas, reforçar a comunicação entre os líderes e apoiar empresas na expansão das suas bases de clientes. Mas será que a IA também é eficaz na tomada de decisões complexas?

Num estudo recente publicado pela Harvard Business Review, cerca de 300 executivos e gestores foram expostos a preços recentes das ações da fabricante de chips Nvidia e, de seguida, convidados a prever o valor dessas ações dentro de um mês. Metade do grupo teve a oportunidade de colocar perguntas ao ChatGPT, enquanto a outra metade pôde discutir o tema com os seus colegas.

Os executivos que recorreram ao ChatGPT tornaram-se significativamente mais otimistas, confiantes e produziram previsões piores do que aqueles que discutiram com os pares.

Segundo os autores do estudo, “é provável que tal se deva ao tom autoritário da IA e ao nível de detalhe das respostas fornecidas – que gerou uma forte sensação de segurança, não sujeita à regulação social, à resposta emocional e ao ceticismo útil que levaram o grupo de discussão a adotar previsões mais conservadoras”.

Tendo em conta as conclusões do estudo, os investigadores identificaram cinco fatores que explicam os diferentes comportamentos entre os grupos.

1. Tendência à extrapolação

Como o ChatGPT baseia-se em dados históricos, pode ter simplesmente projetado a tendência de alta da Nvidia para o futuro, sem considerar possíveis pontos de inflexão. Isso gerou previsões naturalmente otimistas, referem os investigadores.

2. Viés de autoridade e excesso de detalhes

Muitos executivos relataram estar impressionados com o volume de dados e a segurança com que o ChatGPT apresentava as suas respostas. Essa confiança gerou um “viés de autoridade”, o que levou os participantes a confiar mais na IA do que nos seus próprios julgamentos.

Enquanto os humanos sentem intuições e receios ao observar gráficos muito positivos, como pensar “isso pode não durar”, a IA não possui esse tipo de emoção. Sem essa “cautela instintiva”, as suas análises tendem a parecer mais frias e assertivas, o que pode levar a conclusões precipitadas.

4. Dinâmica social e moderação coletiva

Conversar com os colegas permite gerir as expectativas, ouvir diferentes pontos de vista e procurar consensos. Em ambientes profissionais, ninguém quer ser o mais otimista da sala, o que leva a uma moderação natural nas previsões, ao contrário do otimismo isolado incentivado pela IA.

5. Ilusão de conhecimento

O acesso a um grande volume de informações, como o que o ChatGPT oferece, pode passar a falsa sensação de que se compreende tudo. Este efeito foi observado com frequência entre os participantes que consultaram a IA.

Como usar a IA de forma inteligente nas decisões executivas

Os autores também propõem algumas recomendações práticas que as empresas e os líderes devem seguir quando recorrem à IA.

a) Reconheça os vieses e as limitações da IA

A IA pode impressionar, mas pode também ignorar dados e informações importantes. Peça que a tecnologia indique possíveis falhas na previsão, forneça intervalos de confiança e explique cenários alternativos.

b) Não substitua o fator humano. Combine as duas abordagens

Use a IA como ponto de partida, mas valide os dados em discussões com colegas. Combinar a tecnologia e o debate humano pode reduzir falhas.

c) Pensamento crítico é essencial, independentemente da fonte

Questione sempre: de onde vêm os dados? O que pode estar a faltar? Esta postura é válida tanto com a IA como com os pares humanos e ainda mais importante ao lidar com ferramentas que soam confiantes e “donas da verdade”.

d) Treine a equipa e estabeleça diretrizes para o uso da IA

Se a sua empresa está a adoptar ferramentas como o ChatGPT, é fundamental informar sobre os riscos envolvidos. Uma boa prática é realizar uma discussão com os colaboradores antes de consultar a IA ou avaliar os cenários pessimistas antes de se basear em projeções otimistas.

Comentários

Artigos Relacionados