Opinião
ChatGPT, o presunçoso-mor!
Nos tempos actuais, é legítimo duvidar que ainda existam leitores capazes de se dar ao luxo de ler este texto até ao fim, rodeados como estamos pela omnipresença do chamado “texto fácil”.
O ChatGPT é neutro, objectivo e isento de preconceitos. Nada mais falso. O modelo reflecte, amplifica e às vezes exacerba os vieses presentes nos dados em que foi treinado. Se a Internet contém sexismo, racismo, eurocentrismo ou nacionalismos diversos, o ChatGPT aprenderá esses vieses e reproduzi-los-á, muitas vezes de forma subtil, difícil de detectar.
Por exemplo, ao pedir ao ChatGPT para listar “grandes filósofos da história”, a resposta tenderá a incluir quase exclusivamente homens europeus, ignorando sistematicamente pensadores africanos, asiáticos, indígenas ou mulheres. Se questionado sobre “culturas primitivas”, pode usar linguagem arcaica e paternalista, herdada de textos coloniais do século XIX. E, como o faz com fluência e aparente autoridade, o utilizador pode aceitar essas visões distorcidas como verdadeiras.
Pior ainda: o modelo adapta-se ao tom do utilizador. Se alguém escreve uma pergunta com um viés ideológico claro, por exemplo, “Prova que o aquecimento global é uma fraude”.
O ChatGPT, na tentativa de ser “útil”, pode gerar argumentos que parecem racionais e bem fundamentados, mesmo que contradigam o consenso científico. Claro que, em versões mais recentes, há filtros éticos que tentam impedir isso, mas eles são imperfeitos e facilmente contornáveis com reformulações astutas da pergunta.
Assim, longe de ser um guardião da verdade, o ChatGPT é um eco amplificado da Internet (com o que tem de bom e de mau), com todos os seus erros, preconceitos, modas passageiras e manipulações.
O verdadeiro risco não está no uso ocasional do ChatGPT para gerar ideias, corrigir textos ou obter uma primeira abordagem a um tema. O perigo reside na substituição do pensamento crítico pela confiança cega. Cada vez mais, vemos estudantes que entregam trabalhos escritos integralmente pela IA, jornalistas que citam respostas do ChatGPT como se fossem fontes primárias, e decisores empresariais que baseiam estratégias em análises geradas por algoritmos sem validação humana (leia-se, real e verdadeira).
Num caso notório ocorrido em 2023, dois advogados norte-americanos apresentaram um memorando judicial que citava seis decisões judiciais que, afinal, nunca tinham existido. Todas tinham sido inventadas pelo ChatGPT. Quando confrontados, os advogados admitiram ter confiado cegamente na IA, sem verificar as fontes. O tribunal considerou o acto uma “falta grave de profissionalismo” e impôs sanções severas.
Este episódio é um aviso claro: a IA não substitui a responsabilidade humana. Quem usa o ChatGPT como fonte de informação assume a obrigação de verificar cada facto, cada citação, cada dado estatístico. Caso contrário, corre o risco de propagar erros, enganar os outros e, eventualmente, sofrer consequências legais, académicas ou profissionais.
E porque é que o ChatGPT não admite os seus erros?
Curiosamente, mesmo quando confrontado com as suas próprias falhas, o ChatGPT raramente as reconhece de forma clara. Se lhe dissermos:
“A Fábrica de Lanifícios de Guimarães não existia em 1845”, ele pode responder:
“Tem razão, peço desculpa pela imprecisão. Na verdade, a fábrica foi fundada em 1852.”
Ou seja, em vez de admitir que inventou, corrige a invenção com outra invenção. Continua a fabricar, agora com a ilusão de autocrítica.
Esta característica revela uma limitação fundamental: o ChatGPT não tem memória persistente do diálogo, nem compreensão real do que disse antes. Cada resposta é gerada de forma independente, com base apenas no contexto imediato da conversa. Por isso, não pode “aprender” com os erros no sentido humano do termo (bem, os humanos também são um pouco (ou muito) assim). E, como não tem intencionalidade nem consciência, não sente vergonha, culpa ou necessidade de rectificar, apenas gera a resposta que parece mais apropriada naquele momento.
É por isso que nunca se deve tratar o ChatGPT como um interlocutor fiável. Ele é, na melhor das hipóteses, um simulador de conversação extremamente sofisticado. Na pior, um contador de histórias convincentes, sem compromisso com a verdade.
Repito: sem compromisso com a verdade.
Diante deste quadro, qual deve ser a postura do utilizador consciente?
Em primeiro lugar, nunca aceitar como verdadeira qualquer informação fornecida pelo ChatGPT sem verificação independente (tal como na política, by the way). Trate-o como um primeiro rascunho, uma sugestão, um ponto de partida, nunca como ponto de chegada.
Em segundo lugar, use o ChatGPT para o que ele faz bem: organizar ideias, reformular textos, sugerir estruturas, traduzir com fluência, gerar exemplos criativos. Mas quando se trata de factos históricos, dados científicos, legislação, biografias ou qualquer informação verificável, vá sempre às fontes originais: livros, artigos científicos, bases de dados oficiais, arquivos públicos.
Em terceiro lugar, ajude a esclarecer os outros. Se vir colegas, alunos ou amigos a citar o ChatGPT como autoridade, alerte-os. Partilhe este artigo. Promova uma cultura de alfabetização digital crítica, em que a IA é vista como ferramenta auxiliar, não como oráculo.
Finalmente, exija transparência das empresas de tecnologia. Os utilizadores têm o direito de saber que o ChatGPT inventa (alucina), que tem limitações graves e que não deve ser usado em contextos de alta responsabilidade sem supervisão humana rigorosa. A OpenAI e outras empresas devem deixar de promover a IA como “inteligente” ou “sábia”, termos que induzem em erro, e passar a descrevê-la com honestidade: como um modelo estatístico de linguagem, útil, mas profundamente falível.
(Lá chegaremos, mas importa saber que ainda não estamos lá, na “inteligência absoluta”!)
O potencial das IAs generativas é imenso. Podem democratizar o acesso ao conhecimento, ajudar pessoas com dificuldades de escrita, acelerar a investigação científica, preservar línguas ameaçadas, criar arte inovadora. Mas esse potencial só será realizado se formos lúcidos quanto aos seus limites.
A alternativa é um futuro distópico em que a verdade se dilui numa neblina de textos fluentes, mas vazios, em que a memória colectiva é reescrita diariamente por algoritmos sem consciência, e em que a capacidade humana de pensar, duvidar e verificar é atrofiada pela comodidade da resposta pronta.
Já vimos este filme antes: com os motores de busca, com as redes sociais, com os algoritmos de recomendação. Cada nova tecnologia prometeu libertar-nos, mas acabou por nos prender a novas formas de ilusão. A IA generativa é apenas o capítulo mais recente dessa saga. Muito mais está para vir. Muito mesmo!
A diferença é que, desta vez, a ilusão fala connosco na nossa própria língua, com a voz da razão, com a cadência da autoridade. E por isso é mais sedutora… e mais perigosa.
O ChatGPT não é mau. É, porém, presunçoso. E a presunção, quando vestida com as roupagens da eloquência, torna-se especialmente insidiosa. Ela não grita; sussurra com segurança. Não mente descaradamente; distorce com elegância. Não confessa ignorância; inventa com convicção.
Por isso, desconfie. Desconfie sempre. Use o ChatGPT como um ajudante, não como um mestre. Consulte-o, mas verifique. Inspire-se nele, mas pense por si.
A Inteligência Artificial pode imitar o discurso humano, mas não pode substituir o juízo humano. E é esse juízo que nos salvará da tirania da presunção algorítmica.
Que o ChatGPT seja, então, um servo útil, mas jamais o nosso Senhor (“o nosso Senhor”, não quis com isto associar à religião, mas creio que fica mais explícita a minha mensagem). E que nunca nos esqueçamos de que, por trás de cada resposta fluente, pode esconder-se o vazio de quem fala sem saber, mas com a certeza de quem sabe tudo.
P.S. Mas, um grande “mas”, tudo o que disse acima, apesar de ser humano, não sendo eu perfeito (muito, muito longe disso), nem sabendo tudo, obviamente, será que não é presunção também…?
P.S.2 Sobre as “alucinações”, escrevi um outro artigo antes que pode ser lido aqui.
Nota: Este artigo não obedece, propositadamente, ao Novo Acordo Ortográfico.
Empreendedor, Programador e Analista de Sistemas, Henrique Jorge é o fundador e CEO da ETER9 Corporation, uma rede social que conta com a Inteligência Artificial como elemento central, e que atualmente está em fase BETA.
Desde sempre ligado ao mundo da tecnologia, esteve presente no início da revolução da Internet e ficou conhecido pela introdução da Internet e das tecnologias que lhe estão associadas em Portugal, sendo um dos pioneiros nessa área.
Passando por vários episódios de desconstrução e exploração das linguagens dos computadores, chegou à criação da rede social ETER9, um projeto que tem conhecido projeção internacional, e que ambiciona ser muito mais que uma simples rede social. Através de Inteligência Artificial (IA) pretende construir a ponte entre o digital e o orgânico, permitindo a todos deixar um legado digital ativo no ciberespaço, inclusive pela eternidade. Fora do espaço virtual, é casado, pai de duas filhas, e “devora” livros.








