Artigos
Fonte: Análise Editorial
Em meio a um cenário globalmente pandêmico, que impôs a necessidade de mudanças em todos os aspectos da sociedade, principalmente tecnológicas, observou-se a crescente virtualização dos serviços (não somente) judiciais, com o objetivo de assegurar maior celeridade, acessibilidade e eficiência na prestação jurisdicional.
Foi nesse contexto que o Conselho Nacional de Justiça (CNJ) editou a Resolução nº 332, de 21 de agosto de 2020, estabelecendo diretrizes para o uso da Inteligência Artificial ("IA") no âmbito do Poder Judiciário. A norma prioriza, sobretudo, o respeito aos Direitos Fundamentais previstos na Constituição Federal, ao mesmo tempo em que promove maior transparência nos algoritmos utilizados, sem, contudo, desconsiderar a imprescindibilidade da supervisão humana nas decisões automatizadas.
Ocorre que, desde a publicação da Resolução nº 332/2020, o rápido desenvolvimento de sistemas mais sofisticados ampliou exponencialmente as possibilidades de aplicação dessas tecnologias, mas também revelou novos e relevantes riscos — de natureza ética, jurídica e social —, o que tornou imperativa a formulação de um novo marco normativo que regulasse a matéria de forma mais específica e ordenada, assegurando, assim, maior segurança jurídica em sua utilização no âmbito do Judiciário.
Tal necessidade tornou-se ainda mais evidente à medida em que os Tribunais passaram a enfrentar alegações de uso indevido de inteligência artificial em decisões judiciais, a exemplo de recurso julgado pelo Tribunal de Justiça de São Paulo, no qual a parte recorrente sustentou que o uso da tecnologia teria beneficiado indevidamente a parte contrária, violando o princípio do juiz natural, previsto no artigo 5º, inciso LIII, da Constituição Federal (processo nº 1009223-69.2024.8.26.0405). Na ocasião, o Tribunal considerou a acusação extremamente grave, ressaltando que tal alegação deve estar amparada em indícios concretos de uso indevido da inteligência artificial, o que não se verificou no caso em questão.
Nesse cenário, em fevereiro de 2025, o Plenário do CNJ aprovou o Ato Normativo nº 0000563-47.2025.2.00.0000, sob relatoria do Conselheiro Luiz Fernando Bandeira de Mello, culminando na publicação da Resolução nº 615, de 11 de março de 2025.
As novas regras aprovadas são fruto de uma construção coletiva, realizada por meio de contribuições de conselheiros e conselheiras no Grupo de Trabalho instituído pela Portaria CNJ nº 338/2023, que aperfeiçoa substancialmente o regime anterior, ao estabelecer um conjunto robusto de mecanismos de controle e transparência, que refletem uma compreensão mais amadurecida sobre os impactos da automação na atividade jurisdicional.
Como um de seus pilares centrais, a Resolução busca mitigar os riscos inerentes ao uso da IA no Judiciário, estabelecendo limites e diretrizes que orientem sua utilização de forma adequada, segura e em consonância com os princípios constitucionais e jurisdicionais que regem a atuação do Estado.
Ciente de que o documento não é atemporal e de que a evolução tecnológica exige constante atenção e atualização, é certo que a inovadora norma servirá, ainda que de forma empírica, como um norteador normativo geral para todos os tribunais. Para tanto, a Resolução classifica as aplicações de inteligência artificial com base em critérios específicos, tais como o potencial impacto nos direitos fundamentais, a complexidade do modelo, a viabilidade financeira, os usos pretendidos e potenciais, bem como a quantidade de dados sensíveis envolvidos.
A partir desses critérios, as aplicações foram classificadas na mencionada Resolução em três categorias de risco: (i) risco excessivo, que abrange tecnologias proibidas em razão de sua incompatibilidade com os direitos fundamentais (art. 10); (ii) alto risco, admitidas sob rígidos controles de mitigação e com supervisão humana obrigatória (art. 11, caput e §§ 1º e 2º); e (iii) baixo risco, relativas a sistemas com menor potencial ofensivo, sujeitas a monitoramento e revisões periódicas (art. 11, caput e § 3º).
Nesse ponto, merece destaque o fato de que, quanto às vedações aplicáveis às tecnologias de risco excessivo, a Resolução impõe importantes limitações, exemplificando, de maneira expressa, que é vedada a utilização de sistemas capazes de gerar "dependência absoluta do usuário em relação ao resultado proposto", sem que haja a "possibilidade de alteração ou revisão" (art. 10, inciso I). Da mesma forma, a Resolução veda o uso da IA para a valoração de traços de personalidade ou comportamentos de pessoas naturais com o intuito de prever a ocorrência de crimes ou a reincidência criminal, bem como para a classificação de indivíduos com base em sua situação social, comportamentos ou características pessoais (art. 10, incisos II e III). Ademais, também está proibido o uso de ferramentas de IA, por exemplo, para a identificação de emoções por meio do reconhecimento de padrões biométricos, um campo ainda cercado de incertezas técnicas e éticas (art. 10, inciso IV).
A Resolução estabelece, ainda, diretrizes específicas de governança e auditoria dos sistemas de inteligência artificial, determinando, por meio do art. 12, que os tribunais estruturem processos internos capazes de assegurar a segurança, a transparência e a auditabilidade desses sistemas, com vistas a evitar erros sistemáticos e prevenir vieses discriminatórios.
Nessa perspectiva, a transparência deixa de ser um ideal abstrato e se consolida como exigência normativa concreta, impondo a divulgação de indicadores claros e relatórios de impacto em linguagem acessível ao público para que os jurisdicionados compreendam de forma simples como essas tecnologias vêm sendo aplicadas (arts. 33 e 39, inciso VI).
Outro avanço relevante introduzido pela Resolução consiste na criação do Comitê Nacional de Inteligência Artificial do Judiciário (art. 15), cuja composição plural tem por objetivo assessorar o CNJ na formulação e aplicação das políticas relacionadas ao uso da IA, promovendo o diálogo institucional com os diversos órgãos do Judiciário e com a sociedade civil (art. 4º, inciso XII). Trata-se de uma instância fundamental para garantir que as decisões sobre tecnologia no Judiciário sejam tomadas de forma participativa, com ampla escuta institucional e social, à qual compete, por exemplo, a fixação das diretrizes e os critérios de categorização de risco mencionados anteriormente, além das demais incumbências dispostas pelos incisos do art. 16 da Resolução.
No que se refere à aplicação prática da IA, a Resolução prevê a possibilidade de utilização dessas ferramentas para a elaboração de minutas de decisões judiciais, o que representa um avanço importante no uso de tecnologias para otimizar tarefas padronizadas, promovendo maior eficiência e celeridade no trâmite processual. Contudo, é relevante afirmar que a Resolução é enfática ao ressaltar que a responsabilidade final pela decisão continuará sendo exclusivamente do magistrado (art. 19, inciso II e art. 20, inciso IV).
Em outras palavras, ainda que a IA possa atuar como instrumento auxiliar na elaboração de peças decisórias, é imprescindível que o conteúdo gerado seja submetido à análise crítica de um ser humano, que, diante das especificidades do caso concreto, exercerá o juízo de ponderação necessário à adequada interpretação e aplicação das normas pertinentes.
Essa abordagem apenas reforça o conceito de Human in the Loop (HITL), no qual há uma interação entre os sistemas de IA e os operadores humanos. No contexto do Judiciário, os profissionais participam ativamente das etapas de treinamento, validação e supervisão das soluções tecnológicas, contribuindo para o refinamento das respostas, a análise crítica de padrões e a garantia da qualidade, confiabilidade e relevância dos resultados gerados. Assim, consolida-se um modelo híbrido de atuação, em que a tecnologia opera como suporte à atividade jurisdicional, sem jamais se sobrepor à autonomia decisória e ao discernimento técnico do magistrado, que permanece como o único legitimado a proferir a decisão judicial.
Enfim, a Resolução nº 615/2025 consolida uma visão moderna, responsável e equilibrada sobre o uso da inteligência artificial no âmbito do Poder Judiciário, concebendo a tecnologia como uma aliada da atuação humana, e não como sua substituta, sobretudo na nobre missão de assegurar justiça.
Como é possível concluir, o maior mérito da Resolução é a busca por normas concretas e eficazes, que delimitam o uso apropriado da IA e estabelecem barreiras claras, evitando usos que violem os direitos fundamentais dos cidadãos. Ao prever métodos de supervisão e auditoria, bem como vedações ao uso de sistemas de IA de risco excessivo e limitações concretas ao uso de IA generativa, a Resolução se consagra como instrumento vanguardista para a regulamentação da IA no Brasil, com potencial, inclusive, para inspirar iniciativas regulatórias em outras instâncias.
Não obstante, permanece o desafio de capacitar adequadamente os tribunais e suas equipes técnicas, para que consigam implementar, de forma efetiva e contínua, os princípios e diretrizes estabelecidos, transformando as normas em ações concretas e garantindo, assim, que a inovação tecnológica sirva verdadeiramente à promoção dos direitos fundamentais e à melhoria da prestação jurisdicional.