Classificação de IAs no Judiciário é urgente para o Brasil

O uso de inteligência artificial no âmbito forense tem crescido de forma acelerada, sendo cada vez mais empregado para otimizar tarefas administrativas e processuais. Apesar dos benefícios aparentes, a tecnologia ainda apresenta limitações significativas: a falta de controle sobre as fontes de dados pode levar a resultados imprecisos ou a alucinações, exigindo supervisão humana constante.



Para lidar com esses riscos, a comunidade internacional tem elaborado normativas que regulam a produção, circulação e aplicação de sistemas de IA. Em particular, a Europa adotou o Regulamento do Parlamento Europeu nº 2024/1689, que estabelece um esquema de classificação por risco. Os modelos classificados como de risco elevado são aqueles que podem impactar direitos fundamentais, segurança e bem‑estar dos cidadãos.



O considerando 59 do regulamento destaca que o uso de IA por autoridades pode desequilibrar o poder, gerar vigilância excessiva ou privação de liberdade, e afetar o direito à proteção judicial e a um julgamento imparcial, especialmente quando os sistemas carecem de transparência, explicabilidade ou documentação adequada. Já o considerando 60 reforça que esses mecanismos não devem ser usados para criar desigualdades, dificultando o acesso à informação sobre os sistemas ou a contestação de sua aplicação nos tribunais.



Dentro desse contexto, o regulamento classifica como de risco elevado qualquer ferramenta empregada na administração da justiça ou que auxilie as autoridades judiciais na investigação e interpretação de fatos e leis. Essa classificação impõe medidas de segurança e transparência, incluindo a realização de avaliações prévias de impacto sobre direitos e garantias fundamentais.



No Brasil, embora ainda não exista uma lei específica que regule a IA, o Projeto de Lei nº 2338/2023 já classifica como alto risco os sistemas que auxiliam a administração da justiça, especialmente na investigação de fatos e aplicação da lei, quando há risco às liberdades individuais e ao Estado Democrático de Direito. Essa classificação exclui apenas sistemas que apoiam atos administrativos.



Entretanto, a prática forense brasileira revela uma heterogeneidade no uso de IA nos tribunais. O Superior Tribunal de Justiça, por exemplo, tem adotado o STJ Logos, um sistema interno que gera relatórios e resumos processuais, além de permitir consultas via chat para verificar teses e precedentes relevantes. Embora a ferramenta seja vista como um acelerador da produção jurídica, sua operação permanece opaca: não há transparência sobre os vetores de filtragem, as palavras‑chave ou a lógica de análise.



Essa falta de clareza gera preocupações quanto à compatibilidade com o princípio da ampla defesa e da paridade de armas. Enquanto a máquina pode processar e filtrar argumentos de forma automatizada, a parte recorrente costuma carecer de recursos equivalentes, colocando-a em desvantagem discursiva. A ausência de conhecimento sobre a arquitetura do STJ Logos impede que o recorrente desenvolva uma estratégia jurídica comparável.



O cenário atual, portanto, pode ser descrito como um confronto entre homem e máquina, onde a desigualdade de acesso a recursos tecnológicos compromete a efetiva igualdade processual. A Resolução nº 615/2025 do CNJ, que delega aos tribunais a responsabilidade de classificar os riscos associados às ferramentas de IA, não resolve a questão, pois deixa a decisão nas mãos dos próprios implementadores, sem exigir medidas de proteção ou transparência adicionais.



Em vista disso, é imperativo revisitar o conceito de eficiência processual baseado em métricas quantitativas e adotar parâmetros qualitativos que considerem a fundamentação jurisdicional. Além disso, é urgente que os instrumentos auxiliares sejam classificados de acordo com o risco que representam e que sua implementação seja supervisionada de forma adequada, alinhada às diretrizes internacionais.



Assim, a discussão sobre inteligência artificial no direito deve ser pautada não apenas pela inovação, mas também pelo respeito aos direitos fundamentais, à transparência e à equidade processual, garantindo que a tecnologia seja um aliado da justiça, e não um obstáculo.



#calacaepaiva #inteligenciaartificial #justica

in News
Classificação de IAs no Judiciário é urgente para o Brasil
Rannyelly Alencar Paiva October 18, 2025
Share this post
Tags
Our blogs
Archive
STF forma maioria contra recuperação judicial e falência de estatais
Fale conosco pelo WhatsApp