Senso Incomum

A batalha das inteligências artificiais em que não há vencedores

Autor

8 de maio de 2025, 8h00

A pergunta que faço é: pode um Poder do Estado se dar ao luxo de atuar com ferramentas que invariavelmente irão “alucinar”?

 

Há algum tempo venho me dedicando a alertar sobre os perigos da inteligência artificial para o Direito — e para o mundo todo. Aqui mesmo na ConJur já falei sobre os riscos que a inteligência artificial representa em diversos textos. Nas últimas semanas tenho abordado alguns casos específicos, em que nossa vida cotidiana está cada vez mais se aproximando das distopias futuristas (ver aqui e aqui).

Ainda que de minha parte a preocupação com a inteligência artificial e a alta dependência tecnológica devam ser um tema que deve ser tratado com maior seriedade por parte da comunidade jurídica, há setores que abraçam efusivamente a inteligência artificial como solução para os seus problemas.

No Brasil, poucos setores falam tanto em inteligência artificial quanto o Poder Judiciário. Enquanto empresas do setor privado tratam com cautela os processos de automatização por meio de inteligência artificial — sobretudo porque não dispõe do domínio tecnológico necessário para controlar os algoritmos criados por algumas poucas empresas internacionais — no primeiro minuto em que essas tecnologias se apresentaram como viáveis o Judiciário brasileiro se lançou às mãos de robôs, chatbots e quejandos. Todavia, as consequências fáticas da adoção prematura deste tipo de tecnologia começam a pipocar por todos os lados. A pressa do Judiciário gera monstros.

1. O futuro é um tribunal de robôs?

Conforme a “Pesquisa uso de inteligência artificial (IA) no Poder Judiciário: 2023” realizada pelo Conselho Nacional de Justiça, 66% dos tribunais do país fazem uso de inteligência artificial, tendo sido mapeados 140 projetos em desenvolvimento pelos tribunais do país [1]. O campeão de projetos é o Tribunal de Justiça do Estado do Rio Grande do Sul é campeão com 12 projetos de inteligência artificial em desenvolvimento (!!!).

Spacca

Sem dúvida esses dados já estão obsoletos. Observado que os dados publicados pelo CNJ são referentes ao ano de 2023 e estes já davam conta de que havia um crescimento de 22% em uso de inteligência artificial nos tribunais em relação ao ano de 2022, se for mantida esta proporção de crescimento no uso IA, ao final de 2025 quase 100% dos tribunais do país farão uso de inteligência artificial. Os algoritmos estavam chegando e chegaram.

Claro, tenho plena ciência de que esses números podem perfeitamente desacelerar em face de limitações orçamentarias e técnicas nos mais diversos tribunais do país. No entanto, a cada dia somos bombardeados com notícias sobre os novos robôs e inteligências artificiais que vem sendo desenvolvidos pelos tribunais. A cada semana, um novo robô.

2. E o juiz resolveu usar a inteligência artificial para aumentar a produtividade…

Diante do incentivo à adoção da inteligência artificial como solução para “aumentar a produtividade” e “otimizar recursos” em uma larga escala institucional pelo Poder Judiciário, infelizmente não me causa espanto que essa e a ser utilizada como forma de resolver questões mais singelas… como a produtividade individual de magistrados.

Em uma recente publicação realizada pelo portal Migalhas, há informação de que um magistrado está sendo investigado pela corregedoria do Tribunal de Justiça do Estado do Maranhão por uso indevido de inteligência artificial para aumento de sua produtividade (ver aqui).

Conforme a reportagem, o referido magistrado saltou – magistralmente – de uma produtividade média mensal de 80 sentenças, em agosto de 2024, para 969 decisões, muitas delas com padrão textual uniforme. Além disso, nas decisões do magistrado foi identificada ausência de fundamentação ou análise de provas, distribuição indevida de processo por prevenção e, especialmente, o uso inadequado de ferramentas de inteligência artificial, com a criação de “precedentes inexistentes”, gerando insegurança jurídica.

Eis um dos problemas centrais da inteligência artificial generativa que vem se propagando diariamente: o que IA não sabe, ela inventa. Já falei sobre isso anteriormente, inclusive apontando que IA disse que eu disse coisas que nunca falei.

3. Sobre alucinações produzidas pela inteligência artificial

A cada dia mais e mais casos de petições e decisões que resolveram inventar jurisprudência para confirmar os vieses aos quais esses robôs e chatbots foram condicionados desde o princípio.

Nesse sentido, vale mencionar matéria publicada pelo The New York Times, que dá conta exatamente deste que pode ser apontado como o problema central prático — para além dos problemas éticos óbvios — a geração de respostas absolutamente dissociadas dos fatos por parte da inteligência artificial, as chamadas alucinações (ver aqui).

Conforme a reportagem, quanto mais sofisticados ficam os modelos matemáticos utilizados para construir as inteligências artificiais que estão disponíveis ao público se transformam, maior o número de alucinações elas produzem. Nos modelos mais modernos de inteligência artificial testados pelo New York Times, o percentual de alucinações chegou a 79% (!!!) e os desenvolvedores afirmam: essas alucinações podem ser reduzidas, mas nunca deixarão de existir.  O que me dizem os adeptos da IA do Brasil?

A pergunta que faço é: pode um Poder do Estado se dar ao luxo de atuar com ferramentas que invariavelmente irão “alucinar”?

O caso do juiz do Maranhão serve como ilustração daquilo que já afirmei anteriormente, não se trata de uma simples questão de revisão das respostas geradas pela inteligência artificial ou de um defeito de operação do usuário em elaborar corretamente o comando para que a inteligência artificial gere a respostas adequadamente.

Se tais inteligências artificias foram criadas para “solucionar problemas”, se eles não resolverem os de problemas imediatamente, são inúteis. Por essa mesma razão as inteligências artificiais disponíveis no mercado nunca dirão que não tem as respostas que estão sendo buscadas. Pior: tem gente vendendo a produção dos robôs.

4. Venda de petições feitas por IA

De outra parte, em mais uma reportagem recente, temos a notícia de que a Justiça Federal do Rio de Janeiro, atendendo ao pedido de tutela de urgência formulado em ação civil pública ajuizada pela OAB-RJ, determinou a suspensão das atividades de uma plataforma que prometia a criação de petições iniciais para Juizados Especiais, por apenas R$ 19,90 (ver aqui).

A ação civil pública ajuizada pela OAB afirma que a referida plataforma oferecia petições iniciais com argumentação jurídica padronizada, formulada por inteligência artificial, podendo ser protocolada imediatamente nos juizados especiais.

Ainda que o caso concreto da plataforma que oferecia petições para os juizados especiais mediante pagamento de R$ 19,90 demonstre uma camada extra de picaretagem, qual a diferença entre esta plataforma e os chatbots que já estão disponíveis “gratuitamente” na internet? Afinal, ainda que não se tenha que pagar uma soma em dinheiro, o pagamento se dá através de informações que são fornecidas pelo usuário voluntariamente a plataforma.

Todavia, quando observamos o conteúdo daquilo que é “produzido” tanto pela “IA fazedora de petições iniciais para juizados especiais por R$ 19,90” e o Chat GPT — apenas para citar o chatbot mais popular — o resultado é o mesmo e provavelmente tem a origem no mesmo lugar: plágio.

Eis mais uma evidência concreta daquilo que já afirmei por diversas vezes: aquilo que se chama de inteligência artificial generativa é apenas uma máquina de plágio.

5. Petições geradas por IA v. decisões por IA: a batalha final ou a crônica de um desastre anunciado?

Diante desse quadro temos uma situação distópica que cada dia parece mais real: de um lado petições iniciais criadas por inteligência artificial, de outro lado decisões geradas por inteligência artificial para responder as petições. E o que a IA não sabe? Ela inventa. Ah! E claro, tudo isso supervisionado por um dos 14 robôs desenvolvidos pelo tribunal…

Vejam que o quadro caótico que estou apontando não está ligado à forma de que a ferramenta está sendo usada pelos usuários — como os entusiastas da IA costumam acusar aqueles apontam seus perigos — a questão é que própria IA esteja na equação, porque ela está fazendo aquilo que foi programada: gerar solução para um problema.

Eis o busílis. Se a inteligência artificial é a apontada como solução para os problemas humanos de um dos Poderes do Estado, o problema está na solução ofertada.

Nesse sentido, o próximo grande mote dos tribunais no Brasil já está decidido: litigância predatória. O Superior Tribunal de Justiça formulou uma tese ao julgar o Tema 1.198, possibilitando que o magistrado determine que a parte autora emende a petição inicial para demonstrar o interesse de agir e autenticidade da postulação. Ciente de que a tese — fixada pela Corte Especial do STJ e, portanto, “precedente qualificado” — poderia gerar problemas de abusos por parte do próprio Judiciário, o relator do caso afirmou que essas poderiam ser controladas pontualmente. Como isso será feito, ninguém sabe.

Pois bem, conforme o relatório do CNJ, dos 140 projetos de inteligência artificial que estão em desenvolvimento pelos tribunais do país, 15 deles estão vinculados à litigância predatória. E se robô alucinar e identificar uma demanda equivocadamente? Em um país em que impera o realismo jurídico, quantos terão seus direitos solapados?

De fato, deve ser observado que a principal queixa efetuada pelos magistrados no Brasil é a de excesso de processos. Afirmam que em lugar algum no mundo há tantos processos quanto no Brasil. É necessário simplificar, automatizar, diminuir a quantidade de recursos etc. Todavia, a pergunta sobre as razões pelas quais o número de demandas não para de crescer, raramente é feita. Há uma ampla negligência acerca da razão pela qual a vida brasileira vem sendo tão judicializada. De novo: por que será que há tantas demandas e tantos recursos? Há muitas respostas circulando. Mas, são lidas? Compreendidas?

Fazendo uma analogia com a medicina, estamos apenas tratando os sintomas de uma doença mais profunda que está matando o paciente. Pior, para tratar a doença do paciente estamos implementado um tratamento que pode matar todos os outros pacientes que estão em tratamento.

Na distopia futurista Duna, de Frank Herbert, o fim do mundo como conhecemos foi gerado por uma guerra entre os seres humanos e os computadores e robôs conscientes. Apesar da vitória humana sobre as máquinas e sua consequente destruição total, um mandamento foi fundamental foi estabelecido: “não farás máquina à semelhança da mente humana”.

Sempre digo que a literatura chega antes. Ainda é tempo de aprendermos com ela antes que o nosso mundo se torne efetivamente uma distopia. Até porque, no nosso mundo, corremos o sério risco de perder a guerra… Ou já a perdemos? Quando nos deparamos com um caso como o do juiz do Maranhão, parece improvável que possamos vencer.

 


[1] CONSELHO NACIONAL DE JUSTIÇA. Pesquisa uso de inteligência artificial (IA) no Poder Judiciário: 2023. Brasília, 2023. Disponível em: https://bibliotecadigital.cnj.jus.br/jspui/handle/123456789/858

Autores

Encontrou um erro? Avise nossa equipe!