Reflexões sobre IA nas decisões judiciais

Riscos e limites do uso da inteligência artificial na confecção de decisões e sentenças judiciais são debatidos.

Reflexões sobre IA nas decisões judiciais

A aplicação de inteligência artificial no Judiciário brasileiro tem ganhado fôlego na tentativa de proporcionar mais agilidade aos processos. Contudo, cresce a preocupação sobre como essas tecnologias influenciam decisões que exigem escuta, interpretação e análise contextual.

Mais do que inovar, a IA parece reforçar automatismos já enraizados, reproduzindo práticas históricas que negligenciam particularidades e aprofundam desigualdades no sistema penal.

A padronização judicial e o papel da IA

A adoção de tecnologias baseadas em IA para auxiliar na produção de decisões judiciais, especialmente na seara criminal, vem sendo promovida como um avanço técnico. Ferramentas desenvolvidas para identificar padrões, classificar documentos e redigir minutas de sentenças têm sido incorporadas ao cotidiano das cortes brasileiras. No entanto, essa implementação tecnológica ocorre em um sistema jurídico já marcado pela lógica da repetição e da impessoalidade.

Na prática, o uso de “modelões” — estruturas padronizadas usadas por estagiários e servidores para redigir decisões antes mesmo do contato direto com o processo — já revela como a produção judicial se dá por meio de uma lógica automatizada. A IA, portanto, não inaugura esse modelo: ela o intensifica e o viabiliza em maior escala.

Casos semelhantes são automaticamente empacotados em sentenças semelhantes, esmagando singularidades processuais e ignorando argumentos de defesa. Sob essa lógica, o julgador torna-se uma figura distante, e a IA, uma ferramenta que apenas amplifica a já habitual procedimentalização da justiça penal.

Presunção de culpa e viés institucional

Dados etnográficos coletados em varas criminais revelam que há um pressuposto arraigado de culpabilidade orientando todo o processo, da denúncia à sentença. É comum que versões produzidas pela autoridade policial sejam simplesmente encampadas pelo Ministério Público e replicadas na fundamentação judicial — tudo sem questionamento substancial sobre a veracidade dos fatos.

Neste cenário, o uso da IA tende a acentuar o problema: os algoritmos aprendem com decisões anteriores, que já estão contaminadas por esse viés institucional. O efeito é cíclico: a IA reforça padrões históricos de desigualdade, trata versões da defesa como ruído e toma a palavra da autoridade policial como ponto de partida legítimo e inquestionável.

O risco mais evidente é a cristalização automatizada da presunção de culpa. Decisões passam a replicar, com verniz de neutralidade, julgamentos que na origem já desconsideravam o contraditório.

A falsa neutralidade algorítmica

Apesar do discurso tecnológico sugerir que ferramentas de IA operam com neutralidade técnica, essa percepção desmorona diante das evidências de vieses embutidos nos dados que alimentam os sistemas. Se a história de condenações judiciais é marcadamente desigual — com seletividade penal mais forte contra perfis socioeconômicos específicos —, o algoritmo que se alimenta dessa base apenas reproduz, com maior velocidade, essas distorções.

Além disso, a lógica algorítmica ignora as rupturas próprias de casos excepcionais. Os sistemas são desenhados para mapear repetição e semelhanças, não para identificar particularidades. Deste modo, quando surge uma narrativa legítima da defesa que foge ao script institucional, a máquina tende a desconsiderá-la por não reconhecer seu valor fora das estatísticas — um efeito preocupante no âmbito penal, onde a liberdade do acusado está em jogo.

O antagonismo entre forma e conteúdo

No Judiciário brasileiro, a forma costuma ser tratada como valor fundamental. Cumprir prazos, atender requisitos formais e utilizar linguagem jurídica padronizada são práticas valorizadas em detrimento da análise profunda dos fatos. Isso reduz o processo penal a um ritual de legalidade aparente, onde o conteúdo das decisões pode ser artificial e dissociado da realidade concreta.

A IA, nesse contexto, torna-se um catalisador daquilo que já é uma deficiência estrutural. Ela racionaliza ainda mais a justiça documental, na qual a defesa figura como obrigação formal e o julgador pouco interage com as nuances emocionais, sociais e econômicas de cada situação.

Este esvaziamento do fundo em benefício da forma é mais do que um problema técnico — é um embaraço ético. A sofisticação tecnológica deveria servir para democratizar o processo judicial, não para camuflar a ausência de justiça material.

O papel da oralidade: aprendizados comparados

Experiências estrangeiras, como a observada nos tribunais espanhóis, ressaltam a importância da oralidade como pilar de um julgamento mais humano e atento à realidade dos envolvidos. A exposição oral dos argumentos permite ao magistrado analisar expressões, hesitações, emoções e coerência narrativa — dimensões que nenhum algoritmo é capaz de captar.

No Brasil, a prevalência da linguagem escrita e a centralidade da burocracia judicial são tendências que favorecem um modelo de julgamento distante e padronizado. Audiências são encaradas como contratempos, e o depoimento oral é frequentemente deslegitimado como instável ou irrelevante. Essa perspectiva enfraquece o próprio sentido do contraditório e transforma o processo penal em uma engrenagem tecnocrática.

A automação de decisões gera ainda mais preocupação nessa dinâmica: ao operar quase exclusivamente com base em documentos escritos, os sistemas de IA afastam de vez a possibilidade de um julgamento sensível, que leve em conta aspectos subjetivos das relações humanas e dos conflitos sociais ali refletidos.

Considerações finais

O uso da inteligência artificial no Judiciário, especialmente na esfera criminal, exige um debate que vá além da eficiência. É preciso refletir sobre os riscos de reforçar automatismos excludentes que produzem sentenças com aparência de imparcialidade, mas que replicam padrões de desigualdade estruturais.

Não se trata de rejeitar a inovação, mas de compreender que, se não for associada a uma revisão crítica das bases que sustentam nosso modelo de justiça, a tecnologia poderá apenas reafirmar a injustiça com novas roupagens. Nesse sentido, a crítica aos modelões automatizados é, na verdade, uma crítica ao modelo decisório que os sustenta: aquele que privilegia a forma em desfavor do conteúdo, a quantidade à custa da qualidade, e o controle à custa da escuta.

Ao invés de confiar cegamente na suposta neutralidade da IA, é essencial repensar a finalidade do processo criminal — e recolocar no centro da justiça os sujeitos, não os algoritmos.

Leia também:


Reflexões sobre IA nas decisões judiciais

Redação
Redação jornalística da Elias & Cury Advogados Associados.

Gostaria de falar conosco?

Agende uma consultoria com um advogado via WhatsApp!

Mais de 116 avaliações no Google

Consulte as avaliações, já foi atendido pelo escritório? Conte para nós a sua experiência!

🚨 Cuidado, não caia em GOLPES!

A Elias & Cury Advogados Associados NUNCA solicita pagamento de boletos, pix ou depósitos para liberação de qualquer valor referente a processos, fique atento!

Você pode gostar também

Leia outros artigos

STJ nega anulação de pronúncia em caso de homicídio qualificado

STJ nega anulação de pronúncia em caso de homicídio qualificado

Por • Publicado em 15 de janeiro de 2025

STJ rejeita pedido para anular pronúncia em caso de homicídio, questionada três anos após decisão. Entenda os detalhes.

Leia mais
STJ nega cela especial a advogado condenado por homicídio

STJ nega cela especial a advogado condenado por homicídio

Por • Publicado em 21 de janeiro de 2025

STJ indefere pedido de cela especial a advogado condenado por homicídio. Decisão mantém execução da pena em Manaus.

Leia mais
STJ revoga prisão preventiva por tráfico sem periculosidade acentuada

STJ revoga prisão preventiva por tráfico sem periculosidade acentuada

Por • Atualizado em 9 de abril de 2025

STJ decide pela revogação de prisão preventiva de acusado de tráfico devido à ausência de periculosidade acentuada.

Leia mais

Contato

Use os nossos canais de comunicações!

Telefone
+55 11 3771 3100

Endereço
R. Edward Joseph, 122,
CJ 34 – Morumbi – SP







    * Todos os campos são necessários.