Index IA Jurídica

Principais Riscos Jurisdicionais no Uso de LLMs na Prática Jurídica

Por
Adv Donna

Publicado em 10/5/2025

Análise dos Riscos Jurisdicionais na Implementação de LLMs no Direito Brasileiro

A adoção de Large Language Models (LLMs) na prática jurídica brasileira, embora promissora, revela riscos significativos que demandam uma análise criteriosa e baseada em evidências. Este artigo examina os principais desafios jurisdicionais, focando em como a tecnologia, treinada predominantemente em sistemas de Common Law, pode comprometer a integridade e a conformidade no contexto do Civil Law brasileiro. A análise aprofundada desses riscos é essencial para garantir uma implementação segura e ética.

Vetores de Risco e o Contexto Brasileiro

Os riscos associados aos LLMs podem ser categorizados em cinco vetores críticos. Primeiramente, as Alucinações e Erros Factuais, como a citação de precedentes inexistentes, representam uma ameaça grave à fundamentação das decisões judiciais (art. 93, IX, CF/1988), como já observado em incidentes no TRF-1. Em segundo lugar, os Vieses e Discriminação presentes nos dados de treinamento podem perpetuar sentenças injustas, contrariando a Resolução CNJ 332/2020. O terceiro risco é a violação da Privacidade e da LGPD, pois a inserção de dados de clientes em plataformas de IA pode quebrar o sigilo profissional, um ponto que o PL 2338/2023 busca mitigar. Adicionalmente, a Opacidade e Falta de Transparência dificultam a justificação das conclusões da IA, ferindo o princípio do contraditório (art. 489, CPC). Finalmente, a Incompatibilidade Sistêmica com o Civil Law brasileiro, devido ao treinamento em dados de Common Law, pode levar a um raciocínio jurídico inadequado ao nosso ordenamento.

Recomendações Baseadas em Evidências

A mitigação desses riscos exige uma abordagem multifacetada. Fontes como o IEEE e o CNJ recomendam a classificação de LLMs como sistemas de alto risco, sujeitos a rigorosos processos de verificação e validação. É fundamental que advogados e magistrados recebam treinamento contínuo (93,3% dos magistrados demonstram interesse, segundo o CNJ) e que adotem uma postura de ceticismo informado, utilizando a IA como uma ferramenta de auxílio, e não como um substituto para o julgamento humano. A supervisão humana constante e a validação de todas as saídas geradas por IA são, portanto, indispensáveis para uma prática jurídica responsável.