Decisões tomadas com IA são menos cautelosas e mais imprecisas, diz estudo

Um estudo recente revelou que os executivos que recorreram ao ChatGPT para prever o valor das ações da Nvidia tornaram-se mais otimistas, confiantes e menos precisos do que aqueles que discutiram o tema com colegas, evidenciando como a autoridade e detalhe das respostas da IA podem enviesar o pensamento crítico.
Com o avanço da Inteligência Artificial (IA), muitas organizações estão a integrar a tecnologia nos mais diversos ambientes de trabalho. Estudos iniciais mostram que a IA pode, de facto, melhorar o desempenho de funcionários em tarefas simples ou repetitivas, reforçar a comunicação entre os líderes e apoiar empresas na expansão das suas bases de clientes. Mas será que a IA também é eficaz na tomada de decisões complexas?
Num estudo recente publicado pela Harvard Business Review, cerca de 300 executivos e gestores foram expostos a preços recentes das ações da fabricante de chips Nvidia e, de seguida, convidados a prever o valor dessas ações dentro de um mês. Metade do grupo teve a oportunidade de colocar perguntas ao ChatGPT, enquanto a outra metade pôde discutir o tema com os seus colegas.
Os executivos que recorreram ao ChatGPT tornaram-se significativamente mais otimistas, confiantes e produziram previsões piores do que aqueles que discutiram com os pares.
Segundo os autores do estudo, “é provável que tal se deva ao tom autoritário da IA e ao nível de detalhe das respostas fornecidas – que gerou uma forte sensação de segurança, não sujeita à regulação social, à resposta emocional e ao ceticismo útil que levaram o grupo de discussão a adotar previsões mais conservadoras”.
Tendo em conta as conclusões do estudo, os investigadores identificaram cinco fatores que explicam os diferentes comportamentos entre os grupos.
1. Tendência à extrapolação
Como o ChatGPT baseia-se em dados históricos, pode ter simplesmente projetado a tendência de alta da Nvidia para o futuro, sem considerar possíveis pontos de inflexão. Isso gerou previsões naturalmente otimistas, referem os investigadores.
2. Viés de autoridade e excesso de detalhes
Muitos executivos relataram estar impressionados com o volume de dados e a segurança com que o ChatGPT apresentava as suas respostas. Essa confiança gerou um “viés de autoridade”, o que levou os participantes a confiar mais na IA do que nos seus próprios julgamentos.
Enquanto os humanos sentem intuições e receios ao observar gráficos muito positivos, como pensar “isso pode não durar”, a IA não possui esse tipo de emoção. Sem essa “cautela instintiva”, as suas análises tendem a parecer mais frias e assertivas, o que pode levar a conclusões precipitadas.
Conversar com os colegas permite gerir as expectativas, ouvir diferentes pontos de vista e procurar consensos. Em ambientes profissionais, ninguém quer ser o mais otimista da sala, o que leva a uma moderação natural nas previsões, ao contrário do otimismo isolado incentivado pela IA.
5. Ilusão de conhecimento
O acesso a um grande volume de informações, como o que o ChatGPT oferece, pode passar a falsa sensação de que se compreende tudo. Este efeito foi observado com frequência entre os participantes que consultaram a IA.
Como usar a IA de forma inteligente nas decisões executivas
Os autores também propõem algumas recomendações práticas que as empresas e os líderes devem seguir quando recorrem à IA.
a) Reconheça os vieses e as limitações da IA
A IA pode impressionar, mas pode também ignorar dados e informações importantes. Peça que a tecnologia indique possíveis falhas na previsão, forneça intervalos de confiança e explique cenários alternativos.
b) Não substitua o fator humano. Combine as duas abordagens
Use a IA como ponto de partida, mas valide os dados em discussões com colegas. Combinar a tecnologia e o debate humano pode reduzir falhas.
c) Pensamento crítico é essencial, independentemente da fonte
Questione sempre: de onde vêm os dados? O que pode estar a faltar? Esta postura é válida tanto com a IA como com os pares humanos e ainda mais importante ao lidar com ferramentas que soam confiantes e “donas da verdade”.
d) Treine a equipa e estabeleça diretrizes para o uso da IA
Se a sua empresa está a adoptar ferramentas como o ChatGPT, é fundamental informar sobre os riscos envolvidos. Uma boa prática é realizar uma discussão com os colaboradores antes de consultar a IA ou avaliar os cenários pessimistas antes de se basear em projeções otimistas.