Inteligência Artificial

Alucinações em GenAI: o que são e como reduzir riscos

Alucinações em GenAI: o que são e como reduzir riscos
  • Fevereiro 25, 2026

Por que surgem alucinações nos LLMs e porque é essencial a sua gestão para a adoção segura da IA?

Um dos termos centrais na discussão sobre Inteligência Artificial Generativa (GenAI) é o conceito de alucinação. Formalmente, considera-se uma alucinação a geração de informação factualmente incorreta, incoerente ou desligada do contexto, que é apresentada de forma plausível e com aparente confiança. São uma ocorrência comum na vida das pessoas e sistemas que trabalham com Large Language Models (LLMs).

Porque é que ocorrem alucinações nos LLMs?

A causa fundamental é que os LLMs são algoritmos estatísticos, e não motores de verdade. O seu objetivo é prever a próxima palavra mais provável numa sequência, com base em padrões estatísticos de grande escala. Não foram desenhados para validar factos contra uma base de verdade externa e dinâmica. A plausibilidade de uma alucinação é, ironicamente, o modelo a ser bem-sucedido no seu objetivo de gerar texto fluente.

“As alucinações em GenAI não são falhas ocasionais, na verdade, são uma consequência inevitável dos LLMs. O desafio já não é eliminá‑las, mas gerir o risco e ancorar cada resposta em factos verificáveis.”

Ricardo Pacheco Almeida,AI Tech Lead da PwC Portugal

Como uma das principais limitações da tecnologia, as alucinações são um popular objeto de estudo no mundo académico. O consenso atual defende que um LLM ideal, sem alucinações, é inatingível. Isto acontece por uma variedade de fatores: por exemplo, limites teóricos, lacunas de conhecimento que um modelo finito não pode aprender per se; o facto de a arquitetura do modelo ser desenhada para coerência, não para verificação; e os sistemas de avaliação recompensarem a “adivinhação”, sem penalizar a incerteza.

Tipos de alucinação em IA Generativa (intrínseca vs. extrínseca)

Existem dois tipos principais de alucinação, intrínseca e extrínseca. Compreender estes dois tipos de alucinação é essencial para avaliar corretamente a fiabilidade das respostas geradas por modelos de IA.

Alucinação Intrínseca

Alucinação intrínseca

A alucinação intrínseca ocorre quando a resposta contradiz diretamente a informação fornecida no contexto. Por exemplo, se um documento indica um orçamento de 5M€, o modelo afirmar que “o orçamento foi de 8M€” é uma alucinação intrínseca.
 

Alucinação extrínseca

Alucinação extrínseca

A alucinação extrínseca ocorre quando o modelo introduz informação nova que não pode ser verificada pelo contexto. Usando o mesmo exemplo, seria o modelo dizer “o orçamento foi de 5M€, que foi aprovado pela direção a 10 de julho”. A data é uma invenção plausível, mas não fundamentada.

Impacto das alucinações nas empresas e setores críticos

A erosão da confiança é uma das principais barreiras à adoção empresarial da GenAI, e é particularmente intensificada quando as expectativas sobre o potencial dos modelos de GenAI esbarram no desafio das alucinações. Se cada sumário, análise ou rascunho gerado pela IA tiver de ser meticulosamente verificado por um especialista humano, as principais vantagens de usar um sistema automático e dinâmico são anuladas. Este impacto é amplificado em setores de alto risco, como na saúde, justiça ou finanças. Uma alucinação num relatório de análise jurídica pode, por exemplo, criar um precedente legal inexistente. 

Como mitigar as alucinações em GenAI? (RAG e Grounding)

Da noção que as alucinações são inevitáveis, mas mitigáveis, o debate evoluiu de eliminação para gestão e o desafio prático tornou-se suprimir a probabilidade de serem gerados erros.

A técnica mais popular para mitigar as alucinações em GenAI é o Retrieval-Augmented Generation (RAG). Esta consiste em fornecer ao modelo documentos factuais e relevantes como contexto e dar instruções específicas para responder apenas com base nessa informação.

Este é também o principal exemplo de Ancoragem Contextual (Grounding). Ao fornecer contexto externo e verificável no momento da inferência, o sistema ancora a resposta num conjunto finito de factos, gerindo assim os erros inevitáveis de falsa generalização.

Soluções avançadas para reduzir alucinações em LLMs

As soluções mais avançadas para reduzir alucinações em GenAI e LLMs partem de uma abordagem baseada na desconfiança: assumem que o modelo gerador é e será sempre falível.

A estratégia consiste em criar sistemas modulares com verificação externa, garantindo maior precisão e segurança. Esses sistemas incluem: 

  • Gerador (LLM) + Verificador: outro modelo ou regras determinísticas validam cada resposta.
  • Process Reward Models (PRMs): verificação passo a passo, frase por frase.
  • Debates Multi-Agente: múltiplos agentes assumem posições contraditórias e discutem até chegar à resposta mais confiável, simulando um processo democrático.

Estas abordagens são essenciais para aplicações críticas, como saúde, justiça e finanças, onde a confiabilidade da IA é determinante para reduzir riscos.

As alucinações em GenAI representam um dos maiores desafios para a adoção segura e eficiente desta tecnologia. Embora inevitáveis devido à natureza dos LLMs, existem estratégias eficazes para reduzir riscos. É fundamental que as empresas compreendam estas limitações e adotem mecanismos de mitigação. À medida que a IA evolui, a gestão das alucinações será um fator determinante para transformar potencial em valor estratégico.

Revolucione o seu negócio com Inteligência Artificial

Descubra novos caminhos para potenciar a transformação digital da sua organização com a PwC Portugal.

Contacte-nos

Ricardo  Pacheco Almeida

Ricardo Pacheco Almeida

AI Tech Lead, PwC Portugal

Siga-nos