IA e o direito: achamos a solução; agora vamos procurar o problema

O advento da inteligência artificial generativa tem sido proclamado como um divisor de águas na administração da justiça, prometendo acelerar processos, reduzir gargalos e elevar a produtividade dos operadores do direito. Entretanto, a adoção indiscriminada dessas tecnologias pode acarretar efeitos adversos que ameaçam a qualidade, a criatividade e a confiança no sistema jurídico.



Esses sistemas, baseados em grandes modelos de linguagem (LLMs), aprendem a partir de enormes volumes de texto e geram respostas que, embora gramaticalmente corretas e fluentes, reproduzem padrões estatísticos mais do que o raciocínio jurídico propriamente dito. A produção textual resultante tende a homogenizar a linguagem e a lógica jurídica, afastando as particularidades de cada caso e do profissional que a interpreta.



Estudos recentes demonstram que a utilização de LLMs para aprimorar a escrita produz textos complexos e distantes do estilo do autor, recorrendo a palavras de sete letras ou mais que sugerem formalidade, mas que enfraquecem a conexão com a experiência humana. Tal fenômeno, descrito como “efeito homogenizador”, pode reduzir a criatividade e a reflexão crítica necessárias à interpretação das normas.



Além da perda de nuances, há o risco de “rendição cognitiva”, no qual os usuários aceitam respostas erradas sem questionamento. Em experimentos com centenas de participantes, a maioria seguiu orientações incorretas em quase 80% das ocasiões, evidenciando a confiança cega em sistemas que funcionam como caixas‑pretas.



O impacto no raciocínio jurídico é profundo. Enquanto o direito se apoia em silogismos, teorias de argumentação e princípios interpretativos, os LLMs geram respostas sem base em estruturas formais, apenas em probabilidades de ocorrência de palavras. Isso pode perpetuar vieses presentes nos dados de treinamento, comprometendo a imparcialidade e a equidade das decisões.



Em 2026, 77% dos advogados já utilizam IA generativa em suas rotinas, e mais da metade desses profissionais empregam a tecnologia na criação de documentos. Apesar de 64% dos usuários entusiasmados acreditarem em uma melhoria de qualidade, a evidência sugere que a produção textual pode estar desconectada do entendimento jurídico real.



Para mitigar riscos, o Conselho Nacional de Justiça lançou a plataforma Promptus, um banco de prompts que visa padronizar e validar entradas para a IA. Embora a iniciativa aumente a assertividade, ela também pode reforçar a padronização, criando um efeito de convergência coletiva no raciocínio jurídico. A Prompteca, lançada pelo Tribunal Regional Federal da 6ª Região, segue a mesma lógica, incorporando monitoramento de métricas de uso.



Na esfera internacional, a Comissão Europeia relatou a crescente adoção de IA generativa na América Latina, onde a dependência de serviços de nuvem norte‑americanos expõe os sistemas judiciais a LLMs de propriedade privada. A falta de iniciativas comparáveis ao banco de prompts brasileiro sugere uma lacuna em boas práticas globais.



Karen Eltis alerta para o “congelamento da jurisprudência”, um risco de que a previsibilidade algorítmica substitua a inovação e a contextualização. A IA, ao buscar precisão baseada no passado, pode impedir a evolução do direito, que requer ajustes constantes às transformações sociais.



Os dados de 2026 indicam que 43% dos brasileiros não confiam no Supremo Tribunal Federal, o maior índice desde 2012. Essa desconfiança pode se intensificar se o sistema judicial delegar autoridade a tecnologias que não permitem explicação, contestação ou revisão adequadas, como apontou a relatora especial da ONU, Margaret Satterthwaite.



Portanto, a adoção de IA generativa no direito deve ser acompanhada de um debate crítico, envolvendo a academia, a prática profissional e os órgãos reguladores. É imprescindível estabelecer diretrizes que garantam transparência, explicabilidade e responsabilidade, preservando a legitimidade das instituições e a confiança pública.



Em síntese, a inteligência artificial generativa oferece potencial de ganho de eficiência, mas seu uso indiscriminado pode homogeneizar a linguagem jurídica, comprometer a criatividade, perpetuar vieses e minar a confiança no sistema de justiça. Um caminho sustentável exige regulamentação, capacitação e vigilância constante para que a tecnologia sirva como ferramenta de apoio, e não de substituição, da autoridade judicial.



#calacaepaiva #justiça #tecnologia

IA e o direito: achamos a solução; agora vamos procurar o problema
Rannyelly Alencar Paiva 8 de abril de 2026
Compartilhe este post
Marcadores
Nossos blogs
Arquivo
Disputas entre órgãos do Executivo perturbam o ambiente de negócios
Fale conosco pelo WhatsApp