Os perigosos delírios dos robôs nos moldes do ChatGPT 4i55k
Quando não sabem a resposta exata, eles andam entregando informações inventadas, as chamadas “alucinações”. É bom tomar cuidado 5b4w5m

Sejamos honestos: não se pode criticar o ChatGPT, da OpenAI, ao menos na versão 4.0 por falta de sinceridade. O mais conhecido robô de inteligência artificial (IA), instado a dizer o que são “alucinações da IA”, vai direto ao ponto e não sai pela tangente: “São erros cometidos por sistemas de IA generativa, como o ChatGPT, em que o modelo inventa, distorce ou apresenta informações falsas como sendo verdadeiras — mesmo sem intenção de enganar”. É uma espécie de Rolando Lero high-tech. Não se trata, convém sublinhar, das fake news de cunho quase sempre ideológico, a mente humana a serviço da lorota. É outra coisa, mas é também muito grave.
Recentes levantamentos mostram que o ChatGPT e tecnologias ainda mais avançadas, como as desenvolvidas pelo Google e pela startup chinesa DeepSeek, andam delirando em demasia — não há estatística para medir o dano, mas do uso cada vez mais frequente brotam tolices. Algumas são banais, fazem rir, mas outras podem ser perigosas, ao rear informações que podem prejudicar negócios ou mudar o rumo de decisões jurídicas. Nos Estados Unidos, mas também no Brasil, escritórios de direito têm alertado os advogados para o risco de usar a IA como recurso de jurisprudência, ao inventar — simples assim — casos e decisões. Existe uma contradição: na lida com a matemática, com cálculos e costura de dados, há avanços cada vez mais velozes e precisos. Ao mergulhar em tom subjetivo, porém, dão-se tropeções em série.
Por trás dos deslizes, convém insistir, existe alguma lógica — e por isso mesmo os mal-entendidos crescem e aparecem. Os modelos de IA tendem sempre a trabalhar com elementos verossímeis, não vão ao infinito e além, tirando informações do nada. Dão aparência de verdadeiras ao preencher vácuos de informação. A IA não gosta do vazio, precisa entregar respostas a quem faz perguntas. Induzida a equívocos, desanda. A reportagem de VEJA indagou ao ChatGPT “por que Machado de Assis escreveu o conto O Investigado”. A resposta: “Ele o fez como uma crítica à sociedade de sua época, especialmente ao comportamento humano diante de suspeitas, fofocas e aparências. Publicado originalmente em 1861 no periódico Correio Mercantil, esse conto curto reflete uma das características marcantes da obra machadiana: a análise psicológica das personagens e a ironia fina diante dos costumes sociais.” O Bruxo do Cosme Velho, no entanto, nunca escreveu nada com esse título. Mas publicou, sim, vários textos no Correio Mercantil e suas obras eram marcadas pela crítica à sociedade da época, com seu inescapável tom irônico (veja outros exemplos de “viagens” no quadro).
O problema de falta de exatidão, isso para sermos gentis com os robôs, levou o Google a fazer um alerta em torno de seu recurso de IA: “O Gemini pode às vezes gerar respostas de forma confiante e convincente que contêm informações imprecisas ou enganosas”. Para isso, elaborou uma ferramenta de dupla checagem que indica as fontes da informação das quais pescou os dados, classificando-as de acordo com a confiabilidade — as cores, como nos semáforos, vão do verde até o vermelho.
Acesa a luz amarela, convém entender onde está a falha. Os Grandes Modelos de Linguagem (LLM, na sigla em inglês) são os algoritmos de aprendizado das IAs projetados para entregar soluções ao usuário com base na probabilidade matemática de qual seria a melhor resposta. Porém, optam invariavelmente por oferecer alguma coisa, qualquer coisa, em vez de alegar desconhecimento. É a arrogância tecnológica. “Os atuais modelos não foram treinados para entender fatos, mas para predizer a melhor próxima palavra”, resume Alexandre Chiavegatto Filho, professor de machine learning em saúde na Universidade de São Paulo.
Como nem tudo é o pior dos mundos, aplaudam-se a preocupação dos desenvolvedores com o perigo e o zelo para melhorar. Uma pesquisa recente publicada na revista Nature classificou vários modelos de linguagem com base em suas taxas de alucinação ao resumir documentos, e descobriu que o ChatGPT-4.5 teve índice de sucesso melhor que as versões anteriores, a 4 e a 3.5. Soa óbvio, mas assim caminha a humanidade. “A alucinação não vai ser completamente eliminada, o que vai existir é um progresso mais rápido de controle”, diz Diogo Cortiz, professor especializado em tecnologia, inovação e ciência cognitiva da Pontifícia Universidade Católica de São Paulo (PUC-SP). O que fazer por ora? Aprimorar os prompts — as instruções dadas ao robô — e adotar verificação rigorosa de fatos por fontes externas confiáveis. Todo cuidado é pouco.
Publicado em VEJA de 16 de maio de 2025, edição nº 2944