UM JULGAMENTO POR MÁQUINAS?
- Bruno Augusto Santos Oliveira
- 7 de jul. de 2023
- 7 min de leitura

LOOMIS vs. WISCONSIN: UM JULGAMENTO POR MÁQUINAS?
Em fevereiro de 2013, Eric Loomis foi preso por dirigir um carro roubado e por fugir de uma barreira policial em La Crosse, Wisconsin (EUA). Após o devido processo legal, ele foi condenado a seis anos de prisão por um juiz local. Na sentença, o juiz negou a liberdade condicional a Loomis, citando o COMPAS (CorrectionalOffender Management Profiling for AlternativeSanctions), um modelo preditivo utilizado pelo judiciário de Wisconsin para avaliar o risco de reincidência dos réus — que, no caso, indicava um alto nível de periculosidade para Eric Loomis.
A defesa de Loomis apelou da condenação, argumentando que o funcionamento do COMPAS não era completamente compreendido e que seus fabricantes naturalmente não o revelariam, pois o sigilo agregava valor econômico ao produto. Portanto, o uso desse tipo de ferramenta, de acordo com a defesa, violaria o devido processo legal, especialmente o direito de ser condenado com base em fatores verificáveis e com uma fundamentação sólida.
A Suprema Corte de Wisconsin rejeitou o recurso, afirmando que o juiz não se baseou exclusivamente no processamento automatizado de dados, mas considerou todo o conjunto probatório. A Suprema Corte dos EUA, para a qual foi submetido um pedido de análise do mérito posteriormente, optou por não revisar o caso, mantendo assim a decisão da Corte de Wisconsin sem afirmar explicitamente a legitimidade do argumento da defesa.
O caso Loomis vs. Wisconsin levanta preocupações importantes.
Primeiro: a independência judicial pode ser mantida com o uso de IA no judiciário?
Segundo, e talvez mais fundamental: é possível substituir completamente os julgamentos humanos por decisões automatizadas geradas pela IA?
O PRIMEIRO RISCO
Quanto à primeira questão, a "Carta Ética Europeia sobre o uso de Inteligência Artificial nos sistemas judiciais e seu ambiente", da Comissão Europeia para a Eficiência da Justiça (CEPEJ), afirma:
"140. Um juiz que decide contra a previsão de um algoritmo provavelmente assumirá riscos ao assumir uma maior responsabilidade. Não parece irreal imaginar que os juízes estariam relutantes em assumir esse fardo adicional, especialmente em sistemas onde seus mandatos não são permanentes, mas sujeitos a votação popular, ou em que sua responsabilidade pessoal (disciplinar, civil ou mesmo criminal) possa ser incorrida, especialmente se suas garantias estatutárias em assuntos disciplinares forem insuficientes."
A Carta destaca a importância dessa questão no item 156: "...parece altamente recomendável avaliar regularmente o impacto dessas ferramentas no trabalho dos profissionais da justiça."
Como o caso Loomis demonstra, a implementação de sistemas automatizados para auxiliar juízes em julgamentos provavelmente limitará de forma sutil a independência judicial, pelo viés de automação, que pressupõe que as decisões tomadas por máquinas estão corretas e não podem ser contestadas. Essa questão certamente ganhará cada vez mais importância à medida que os juízes passarem a usar a IA para obter informações factuais relevantes para o processo. Embora o uso da IA com essa finalidade ainda seja praticamente inexistente no Brasil hoje (exceto talvez por pesquisas privadas realizadas por juízes em plataformas como o Google e o ChatGPT, que podem influenciar sua formação de opinião em certa medida), é apenas uma questão de tempo até que modelos de IA comecem a auxiliar juízes em julgamentos, tornando crucial que estudiosos do direito abordem essa questão.
O SEGUNDO RISCO
O segundo risco foi apontado por Mariah Brochado, professora que tem estudado esses temas com grande profundidade. Ela enfatiza o aspecto simbólico, além do lógico, dos julgamentos judiciais feitos por seres humanos:
"Não é demais mencionar o quanto pode ser desestabilizador para a simbologia social em torno do papel e da relevância do Direito o excesso de casos decididos por máquinas, a pôr em xeque a própria necessidade do Poder Judiciário enquanto instituição de poder, se se entender que este nada mais é que um compêndio de programas computacionais. Politicamente falando, as práticas de decisão maquínica podem vir a 'estafar as bases institucionais do Judiciário em pouco tempo, sem qualquer tom escatológico, pelo malogro nos escopos do próprio Poder Judiciário, o qual cumpre a missão de receber demandas e decidi-las com competência e sensibilidade (não à toa sentença vem de sentire), no que reside simbolicamente sua legitimidade, respeitabilidade, sua posição de poder. Pessoas seguirão buscando por autoridades para resolver com sensibilidade humana seus dramas pessoais quando sabedoras serão de que robôs estão à frente dos processos? Parece que será algo similar ao que os chatbots provocam em nós hoje: busca por empatia ao tentarmos chegar num humano que nos atenda e resolva nossas questões humanamente" (Brochado, 2023, p. 90).
No mesmo sentido, Bruno Oliveira, um estudioso aqui do Intelletica, já em 2012 manifestava preocupação com a erosão do valor simbólico da magistratura:
"Em 'O juiz e a Democracia – O Guardião das Promessas', Antoine Garapon argumenta que existe uma crise de valores e simbólica nas sociedades contemporâneas, o que explica o imenso volume e diversidade de casos submetidos à apreciação dos juízes. Segundo o autor, parte desse fenômeno se explica pelo fato de o juiz ser um sobrevivente no universo simbólico da humanidade. Em suas palavras, a jurisdição – e, assim, em boa medida, o juiz – seria a última instância moral de nossa sociedade, uma das últimas instâncias simbólicas ainda de pé... Na modernidade, caracterizada por Taylor como uma época de mal-estar, domínio do individualismo e da razão instrumental, a sociedade viu seus horizontes morais erodidos, juntamente com o símbolo do juiz. O juiz-indivíduo, sendo-com-os-outros-no-mundo, refletindo em sua autoconfiguração, numa relação de intersubjetividade, o olhar da sociedade sobre ele, também tem dificuldade em se enxergar como uma instância simbólica. As visões externas (da sociedade sobre o juiz) e as visões internas (do juiz sobre si mesmo) convergem para um servidor técnico, equiparado aos demais membros de um corpo técnico governamental, com foco em metas, números e, principalmente, custo-benefício" (Oliveira, 2012).
O filósofo sul-coreano Byung-Chul Han associa a iconoclastia da contemporaneidade à mercantilização de atividades que estavam fora da lógica econômica até então:
"Os rituais são ações simbólicas. Eles transmitem e representam os valores e ordens que mantêm uma comunidade unida. Eles geram uma comunidade sem comunicação, enquanto o que predomina hoje é a comunicação sem comunidade. A percepção simbólica é constitutiva dos rituais. O símbolo, uma palavra que vem do grego symbolon, originalmente significava um sinal de reconhecimento ou uma 'senha' entre pessoas hospitaleiras (tessera hospitalis). Um dos convidados quebra uma placa de argila, fica com uma metade e entrega a outra metade como sinal de hospitalidade. Dessa forma, o símbolo serve para o reconhecimento... Hoje, os valores também servem como objetos de consumo individual. Eles se tornam mercadorias. Valores como justiça, humanidade ou sustentabilidade são descartados economicamente para uso: 'Salve o mundo bebendo chá', diz o slogan de uma empresa de comércio justo. Mudar o mundo consumindo seria o fim da revolução. Até mesmo sapatos ou roupas devem ser veganos. Nesse ritmo, em breve teremos smartphones veganos. O neoliberalismo explora a moralidade de muitas maneiras. Os valores morais são consumidos como marcas de distinção. Eles são direcionados ao ego, o que aumenta a autoestima. Eles aumentam a autoestima narcisista. Através dos valores, a pessoa não se relaciona com a comunidade, mas apenas se refere ao próprio ego. Os rituais podem ser definidos como técnicas simbólicas de instalação em uma casa. Eles transformam 'estar no mundo' em 'estar em casa'. Eles tornam o mundo um lugar confiável. Eles são, no tempo, o que uma casa é no espaço. Eles tornam o tempo habitável" (Han, 2023).
Quão hostil e inóspito se tornará um tribunal de justiça administrado por robôs, uma vez que a cidadela simbólica do judiciário seja derrubada? O julgamento é, antes de tudo, um ato de empatia, algo que apenas os seres humanos podem ter. O juiz deve se colocar mentalmente na posição das partes e avaliar, como ser humano, os significados de suas condutas no contexto em que vivem. As máquinas não compartilham conosco a biosfera; elas não têm existência orgânica nem psicologia. Elas não pensam efetivamente, mas apenas realizam cálculos matemáticos complexos para simular o pensamento.
No entanto, o fato é que a incorporação da IA em nossas vidas diárias acelerou significativamente e, inevitavelmente, encontrará seu caminho no processo judicial em nosso país. Retornando ao caso Loomis, é importante lembrar que o COMPAS é um modelo completamente privado desenvolvido por uma empresa voltada ao lucro (o que em si mesmo é legítimo, diga-se de passagem), e é vendido em um site junto com uma variedade de serviços. Isso é seguro para os direitos fundamentais? É democrático? Essas são apenas algumas das muitas perguntas que podem ser levantadas.

O QUE PODE SER FEITO?
Diante dessa situação, devemos nos render à inevitabilidade? Será que não há nada a fazer além de aceitar a ascensão implacável do juiz-robô?
Acreditamos que não.
Uma das possíveis medidas está prevista na mesma Carta Europeia mencionada anteriormente:
“10.1. A importância de debater, testar e revisar continuamente a aplicação dessas ferramentas antes da implementação de políticas públicas
154. É essencial ter um debate público sobre essas questões, reunindo designers das ferramentas e profissionais do direito. Conselhos judiciais, associações profissionais de juízes e ordens de advogados podem contribuir para isso, ajudando a identificar oportunidades e aspectos mais controversos. Além disso, a formação judicial e as faculdades de direito podem desempenhar um papel fundamental na conscientização dos profissionais da justiça sobre essas questões, para que possam entender melhor e contribuir de forma prática para os desenvolvimentos atuais.
Também é essencial realizar pesquisas e testes das aplicações propostas, tanto para entender seu potencial e suas fraquezas, quanto para desenvolvê-las e adaptá-las às nossas necessidades. É igualmente importante ter o direito de examinar os componentes e características dos instrumentos propostos pelo setor privado (ou aqueles desenvolvidos por institutos públicos independentes e especializados, uma solução que deve ser incentivada), para que o serviço de justiça possa cumprir efetivamente sua missão. Uma avaliação rigorosa dos resultados dos testes deve ser feita antes de uma implementação mais ampla e integração nas políticas públicas. Também é altamente recomendável avaliar regularmente o impacto dessas ferramentas no trabalho dos profissionais da justiça.”
Em suma, acreditamos que, diante do aumento do uso da tecnologia, é necessário estabelecer limites éticos que possam ser incorporados ao design dos modelos de IA, limites que sejam factíveis e verificáveis. Especialistas em ética e direito devem trabalhar em conjunto com tecnólogos para encontrar e implementar essas soluções.
Em 07 de Julho de 2023, equipe Intelletica.
BROCHADO, M. INTELIGÊNCIA ARTIFICIAL E ÉTICA: UM DIÁLOGO COM LIMA VAZ. Revista Kriterion, [S. l.], v. 64, n. 154, 2023. Disponível em: https://periodicos.ufmg.br/index.php/kriterion/article/view/38288. Acesso em: 7 jul. 2023.
OLIVEIRA, Bruno Augusto Santos. A erosão do juiz como símbolo nas sociedades contemporâneas e a necessidade de formação ética e crítica do indivíduo-magistrado. Revista Jus Navigandi, ISSN 1518-4862, Teresina, ano 17, n. 3402, 24 out. 2012. Disponível em: https://jus.com.br/artigos/22876. Acesso em: 7 jul. 2023.
HAN, Byung-Chul. O desaparecimento dos rituais: Uma topologia do presente. Editora Vozes, 2021




Comentários