Um dos termos centrais na discussão sobre Inteligência Artificial Generativa (GenAI) é o conceito de alucinação. Formalmente, considera-se uma alucinação a geração de informação factualmente incorreta, incoerente ou desligada do contexto, que é apresentada de forma plausível e com aparente confiança. São uma ocorrência comum na vida das pessoas e sistemas que trabalham com Large Language Models (LLMs).
A causa fundamental é que os LLMs são algoritmos estatísticos, e não motores de verdade. O seu objetivo é prever a próxima palavra mais provável numa sequência, com base em padrões estatísticos de grande escala. Não foram desenhados para validar factos contra uma base de verdade externa e dinâmica. A plausibilidade de uma alucinação é, ironicamente, o modelo a ser bem-sucedido no seu objetivo de gerar texto fluente.
“As alucinações em GenAI não são falhas ocasionais, na verdade, são uma consequência inevitável dos LLMs. O desafio já não é eliminá‑las, mas gerir o risco e ancorar cada resposta em factos verificáveis.”
Como uma das principais limitações da tecnologia, as alucinações são um popular objeto de estudo no mundo académico. O consenso atual defende que um LLM ideal, sem alucinações, é inatingível. Isto acontece por uma variedade de fatores: por exemplo, limites teóricos, lacunas de conhecimento que um modelo finito não pode aprender per se; o facto de a arquitetura do modelo ser desenhada para coerência, não para verificação; e os sistemas de avaliação recompensarem a “adivinhação”, sem penalizar a incerteza.
Existem dois tipos principais de alucinação, intrínseca e extrínseca. Compreender estes dois tipos de alucinação é essencial para avaliar corretamente a fiabilidade das respostas geradas por modelos de IA.
A alucinação intrínseca ocorre quando a resposta contradiz diretamente a informação fornecida no contexto. Por exemplo, se um documento indica um orçamento de 5M€, o modelo afirmar que “o orçamento foi de 8M€” é uma alucinação intrínseca.
A alucinação extrínseca ocorre quando o modelo introduz informação nova que não pode ser verificada pelo contexto. Usando o mesmo exemplo, seria o modelo dizer “o orçamento foi de 5M€, que foi aprovado pela direção a 10 de julho”. A data é uma invenção plausível, mas não fundamentada.
A erosão da confiança é uma das principais barreiras à adoção empresarial da GenAI, e é particularmente intensificada quando as expectativas sobre o potencial dos modelos de GenAI esbarram no desafio das alucinações. Se cada sumário, análise ou rascunho gerado pela IA tiver de ser meticulosamente verificado por um especialista humano, as principais vantagens de usar um sistema automático e dinâmico são anuladas. Este impacto é amplificado em setores de alto risco, como na saúde, justiça ou finanças. Uma alucinação num relatório de análise jurídica pode, por exemplo, criar um precedente legal inexistente.
Da noção que as alucinações são inevitáveis, mas mitigáveis, o debate evoluiu de eliminação para gestão e o desafio prático tornou-se suprimir a probabilidade de serem gerados erros.
A técnica mais popular para mitigar as alucinações em GenAI é o Retrieval-Augmented Generation (RAG). Esta consiste em fornecer ao modelo documentos factuais e relevantes como contexto e dar instruções específicas para responder apenas com base nessa informação.
Este é também o principal exemplo de Ancoragem Contextual (Grounding). Ao fornecer contexto externo e verificável no momento da inferência, o sistema ancora a resposta num conjunto finito de factos, gerindo assim os erros inevitáveis de falsa generalização.
As soluções mais avançadas para reduzir alucinações em GenAI e LLMs partem de uma abordagem baseada na desconfiança: assumem que o modelo gerador é e será sempre falível.
A estratégia consiste em criar sistemas modulares com verificação externa, garantindo maior precisão e segurança. Esses sistemas incluem:
Estas abordagens são essenciais para aplicações críticas, como saúde, justiça e finanças, onde a confiabilidade da IA é determinante para reduzir riscos.
As alucinações em GenAI representam um dos maiores desafios para a adoção segura e eficiente desta tecnologia. Embora inevitáveis devido à natureza dos LLMs, existem estratégias eficazes para reduzir riscos. É fundamental que as empresas compreendam estas limitações e adotem mecanismos de mitigação. À medida que a IA evolui, a gestão das alucinações será um fator determinante para transformar potencial em valor estratégico.