Aumento de Alucinações na IA: Por Que Novos Modelos (OpenAI, Google) Erram Mais?

A Inteligência Artificial (IA) enfrenta um paradoxo: enquanto os novos sistemas de IA, como os avançados “sistemas de raciocínio” da OpenAI e Google, demonstram maior potência, eles também apresentam um aumento nos erros da IA ao gerar informações falsas – as preocupantes “alucinações da IA”. Este problema de alucinações em IA e a dificuldade em manter a precisão factual estão piorando, mesmo com avanços em áreas como matemática, e as próprias empresas de tecnologia ainda buscam entender completamente as causas dessa tendência nos seus modelos de IA.

De acordo com o New York Times, as alucinações da IA (quando a IA inventa informações) ocorrem devido à própria natureza operacional desses sistemas. A Inteligência Artificial aprende analisando vastos volumes de dados e, em seguida, utiliza modelos probabilísticos e matemáticos para gerar a resposta que considera mais provável, sem ter uma real capacidade de discernir o verdadeiro do falso. Esse mecanismo fundamental é o que leva a IA a criar informações falsas. Em testes recentes, alguns desses novos sistemas de IA demonstraram taxas de erro alarmantes, com alucinações chegando a 79%. Um exemplo prático dos problemas com IA foi o caso do bot de IA da empresa Cursor, que gerou informações incorretas sobre uma política da empresa, causando confusão e resultando em cancelamentos de serviços por parte dos clientes.

O aumento das alucinações da IA é uma tendência que levanta sérias dúvidas sobre a confiabilidade da Inteligência Artificial, especialmente em modelos de IA generativa. A questão de confiar na IA torna-se crucial quando esses sistemas são aplicados em setores críticos, como na análise de documentos legais, no fornecimento de informações médicas ou na gestão de dados empresariais sensíveis. A confiança em sistemas de IA é severamente abalada quando não há garantia da veracidade das informações, impactando diretamente a adoção da IA nessas áreas.

Assim, o desafio de entender o comportamento da IA em modelos complexos e encontrar formas de eliminar as alucinações da IA persiste como uma das áreas prioritárias de avanço, apesar dos contínuos esforços de pesquisa. A imensa quantidade de dados utilizada no treinamento de IA e a complexidade de arquitetura dos sistemas de Inteligência Artificial são obstáculos na identificação das causas das alucinações e a criação de soluções para mitigar erros da IA.

Se quiser saber mais sobre o assunto leia o texto utilizado como fonte para esse artigo. https://www.nytimes.com/2025/05/05/technology/ai-hallucinations-chatgpt-google.html