O Que São as “Alucinações” da Inteligência Artificial no Direito?

O uso ético da inteligência artificial no Direito exige supervisão humana e responsabilidade profissional. Este artigo explica o que são as alucinações da IA e como evitá-las na prática forense.

Com o avanço da inteligência artificial (IA) no meio jurídico, uma preocupação tem ganhado destaque nas discussões sobre ética e responsabilidade profissional: o fenômeno das AI hallucinations, ou “alucinações da IA”. Mas o que exatamente isso significa?

1. O que é uma “alucinação” da IA?

O termo “alucinação” é utilizado na ciência da computação para descrever quando um sistema de IA, como o ChatGPT, gera uma informação que parece verdadeira, mas é falsa ou inexistente. No contexto jurídico, isso pode ocorrer quando a IA inventa um número de processo, uma decisão judicial, um artigo de lei, ou até mesmo um precedente que nunca existiu, mas apresenta o conteúdo com estrutura e vocabulário aparentemente confiáveis.

Exemplo: ao pedir para que a IA fundamente um argumento com base na jurisprudência, o sistema pode apresentar um julgado fictício, atribuído falsamente ao STJ ou STF, com ementa e numeração que não correspondem a nenhum caso real.

2. Por que isso acontece?

Modelos de IA como os Large Language Models (LLMs) foram treinados para prever qual será a próxima palavra ou frase com base em padrões de linguagem. Ou seja, eles não “entendem” o conteúdo, mas simulam uma resposta plausível com base em probabilidades estatísticas. Se os dados de treinamento foram incompletos, imprecisos ou mal interpretados, há risco de o modelo “preencher as lacunas” com dados fabricados.

3. Riscos no exercício da advocacia

No Direito, onde a precisão e a veracidade das fontes são fundamentais, uma alucinação pode gerar consequências sérias:

– Petição com precedentes inexistentes pode ser interpretada como litigância de má-fé ou negligência profissional.

– Citação de artigo de lei inventado compromete a credibilidade do advogado.

– Dano à imagem profissional, especialmente diante do juiz, Ministério Público ou clientes.

– Possibilidade de sanções disciplinares, inclusive por violação do dever de diligência.

4. O que dizem os órgãos reguladores?

A Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ), a Recomendação nº 001/2024 do Conselho Federal da OAB e os relatórios oficiais da Solicitors Regulation Authority (SRA) do Reino Unido estabelecem diretrizes convergentes sobre o uso responsável da inteligência artificial (IA) no exercício da Direito, sendo, respectivamente a primeira entidade regulamentadora dos órgãos do Judiciário e os últimas duas regulamentadoras da advocacia. Todos esses instrumentos normativos reforçam que a IA deve ser utilizada apenas como ferramenta auxiliar, jamais como substituta do raciocínio jurídico humano. A supervisão humana permanece obrigatória, sendo inadmissível a automatização integral de decisões judiciais ou a apresentação de petições baseadas em “alucinações de IA” — isto é, conteúdos falsos gerados por modelos automatizados. Em qualquer hipótese, o advogado continua plenamente responsável pelos atos praticados e pelos argumentos levados ao Poder Judiciário, devendo responder ética e tecnicamente por seu uso consciente e diligente dessas tecnologias.

5. Como prevenir?

– Não copie diretamente respostas da IA sem checar.

– Confirme jurisprudências e artigos em fontes oficiais (DJe, sites de tribunais, doutrina autorizada).

– Use IA como ponto de partida, e nunca como fonte final.

– Comunique com transparência ao cliente sobre o uso de tecnologia, se pertinente.


A inteligência artificial é uma aliada poderosa, mas seu uso exige cautela e discernimento. AI hallucinations não são erros triviais: no contexto jurídico, são desvios que podem comprometer a ética e a responsabilidade do advogado. A regra é simples: usar com inteligência, revisar com rigor e responder com responsabilidade.

Dr. Felipe Issa
Advogado brasileiro, especialista em Direito Processual Civil, bacharel e Mestre em Direito na Inglaterra e Sócio da Issa Merhi Advocacia.

Leave a comment