
A aplicação de inteligência artificial no Judiciário brasileiro tem ganhado fôlego na tentativa de proporcionar mais agilidade aos processos. Contudo, cresce a preocupação sobre como essas tecnologias influenciam decisões que exigem escuta, interpretação e análise contextual.
Navegue pelo conteúdo
Mais do que inovar, a IA parece reforçar automatismos já enraizados, reproduzindo práticas históricas que negligenciam particularidades e aprofundam desigualdades no sistema penal.
A padronização judicial e o papel da IA
A adoção de tecnologias baseadas em IA para auxiliar na produção de decisões judiciais, especialmente na seara criminal, vem sendo promovida como um avanço técnico. Ferramentas desenvolvidas para identificar padrões, classificar documentos e redigir minutas de sentenças têm sido incorporadas ao cotidiano das cortes brasileiras. No entanto, essa implementação tecnológica ocorre em um sistema jurídico já marcado pela lógica da repetição e da impessoalidade.
Na prática, o uso de “modelões” — estruturas padronizadas usadas por estagiários e servidores para redigir decisões antes mesmo do contato direto com o processo — já revela como a produção judicial se dá por meio de uma lógica automatizada. A IA, portanto, não inaugura esse modelo: ela o intensifica e o viabiliza em maior escala.
Casos semelhantes são automaticamente empacotados em sentenças semelhantes, esmagando singularidades processuais e ignorando argumentos de defesa. Sob essa lógica, o julgador torna-se uma figura distante, e a IA, uma ferramenta que apenas amplifica a já habitual procedimentalização da justiça penal.
Presunção de culpa e viés institucional
Dados etnográficos coletados em varas criminais revelam que há um pressuposto arraigado de culpabilidade orientando todo o processo, da denúncia à sentença. É comum que versões produzidas pela autoridade policial sejam simplesmente encampadas pelo Ministério Público e replicadas na fundamentação judicial — tudo sem questionamento substancial sobre a veracidade dos fatos.
Neste cenário, o uso da IA tende a acentuar o problema: os algoritmos aprendem com decisões anteriores, que já estão contaminadas por esse viés institucional. O efeito é cíclico: a IA reforça padrões históricos de desigualdade, trata versões da defesa como ruído e toma a palavra da autoridade policial como ponto de partida legítimo e inquestionável.
O risco mais evidente é a cristalização automatizada da presunção de culpa. Decisões passam a replicar, com verniz de neutralidade, julgamentos que na origem já desconsideravam o contraditório.
A falsa neutralidade algorítmica
Apesar do discurso tecnológico sugerir que ferramentas de IA operam com neutralidade técnica, essa percepção desmorona diante das evidências de vieses embutidos nos dados que alimentam os sistemas. Se a história de condenações judiciais é marcadamente desigual — com seletividade penal mais forte contra perfis socioeconômicos específicos —, o algoritmo que se alimenta dessa base apenas reproduz, com maior velocidade, essas distorções.
Além disso, a lógica algorítmica ignora as rupturas próprias de casos excepcionais. Os sistemas são desenhados para mapear repetição e semelhanças, não para identificar particularidades. Deste modo, quando surge uma narrativa legítima da defesa que foge ao script institucional, a máquina tende a desconsiderá-la por não reconhecer seu valor fora das estatísticas — um efeito preocupante no âmbito penal, onde a liberdade do acusado está em jogo.
O antagonismo entre forma e conteúdo
No Judiciário brasileiro, a forma costuma ser tratada como valor fundamental. Cumprir prazos, atender requisitos formais e utilizar linguagem jurídica padronizada são práticas valorizadas em detrimento da análise profunda dos fatos. Isso reduz o processo penal a um ritual de legalidade aparente, onde o conteúdo das decisões pode ser artificial e dissociado da realidade concreta.
A IA, nesse contexto, torna-se um catalisador daquilo que já é uma deficiência estrutural. Ela racionaliza ainda mais a justiça documental, na qual a defesa figura como obrigação formal e o julgador pouco interage com as nuances emocionais, sociais e econômicas de cada situação.
Este esvaziamento do fundo em benefício da forma é mais do que um problema técnico — é um embaraço ético. A sofisticação tecnológica deveria servir para democratizar o processo judicial, não para camuflar a ausência de justiça material.
O papel da oralidade: aprendizados comparados
Experiências estrangeiras, como a observada nos tribunais espanhóis, ressaltam a importância da oralidade como pilar de um julgamento mais humano e atento à realidade dos envolvidos. A exposição oral dos argumentos permite ao magistrado analisar expressões, hesitações, emoções e coerência narrativa — dimensões que nenhum algoritmo é capaz de captar.
No Brasil, a prevalência da linguagem escrita e a centralidade da burocracia judicial são tendências que favorecem um modelo de julgamento distante e padronizado. Audiências são encaradas como contratempos, e o depoimento oral é frequentemente deslegitimado como instável ou irrelevante. Essa perspectiva enfraquece o próprio sentido do contraditório e transforma o processo penal em uma engrenagem tecnocrática.
A automação de decisões gera ainda mais preocupação nessa dinâmica: ao operar quase exclusivamente com base em documentos escritos, os sistemas de IA afastam de vez a possibilidade de um julgamento sensível, que leve em conta aspectos subjetivos das relações humanas e dos conflitos sociais ali refletidos.
Considerações finais
O uso da inteligência artificial no Judiciário, especialmente na esfera criminal, exige um debate que vá além da eficiência. É preciso refletir sobre os riscos de reforçar automatismos excludentes que produzem sentenças com aparência de imparcialidade, mas que replicam padrões de desigualdade estruturais.
Não se trata de rejeitar a inovação, mas de compreender que, se não for associada a uma revisão crítica das bases que sustentam nosso modelo de justiça, a tecnologia poderá apenas reafirmar a injustiça com novas roupagens. Nesse sentido, a crítica aos modelões automatizados é, na verdade, uma crítica ao modelo decisório que os sustenta: aquele que privilegia a forma em desfavor do conteúdo, a quantidade à custa da qualidade, e o controle à custa da escuta.
Ao invés de confiar cegamente na suposta neutralidade da IA, é essencial repensar a finalidade do processo criminal — e recolocar no centro da justiça os sujeitos, não os algoritmos.
Leia também:
- Advogado deve indenizar Alexandre por ofensa em júri
- Associações e empresas condenadas por bingo ilegal
- Biden comuta sentenças e concede perdões históricos nos EUA
- Condenação por fraude à cota de gênero eleitoral e suas consequências legais
- Condenado em regime aberto exige intimação prévia
- Congresso amplia penas por crimes contra juízes e membros do MP

Redação
Redação jornalística da Elias & Cury Advogados Associados.