Inteligência ArtificialUFC31 de dezembro de 2025

O devido processo legal tecnológico na era da inteligência artificial: uma análise do sistema Athos no rito dos recursos repetitivos

A pesquisa analisa a integração do sistema Athos (IA) no processo de recursos repetitivos, questionando sua compatibilidade com o devido processo legal tecnológico. Conclui que o Athos, e sistemas similares, possuem limitações conceituais e operacionais, exigindo supervisão humana e princípios de transparência e explicabilidade, os quais o Athos não incorpora adequadamente. O estudo ressalta a falta de uma estratégia normativa brasileira para IA e o risco de viés de automação no judiciário.

Inovação8/10
Aplicabilidade9/10
Potencial econômico8/10
MaturidadeMédia

Ideia de startup ou produto

Uma startup poderia desenvolver uma plataforma de 'XAI para o Judiciário', oferecendo módulos plug-and-play para sistemas de IA existentes (como o Athos) ou novos. Essa plataforma forneceria visualizações intuitivas, explicações em linguagem natural sobre as decisões da IA, e ferramentas para auditores humanos avaliarem o 'caminho' percorrido pela IA, garantindo transparência e conformidade com o devido processo legal tecnológico.

Aplicações práticas

Os achados podem ser aplicados no desenvolvimento de diretrizes e padrões para sistemas de IA no setor público, especialmente no judiciário, focando em transparência e explicabilidade. Podem guiar a reengenharia de sistemas existentes, como o Athos, e informar a criação de novas ferramentas de Legal Tech que incorporem esses princípios desde a concepção. Também servem para o treinamento de profissionais do direito sobre as limitações e o uso ético da IA.

Potencial de mercado

Existe um alto potencial de mercado para soluções de 'Explainable AI' (XAI) e ferramentas de auditoria de IA para o setor jurídico e governamental. O mercado de Legal Tech pode se expandir com produtos que garantam conformidade com o devido processo legal tecnológico. Há demanda por consultoria especializada para órgãos públicos na implementação e adequação de sistemas de IA, bem como para empresas que buscam desenvolver soluções éticas e transparentes.

Problema abordado

O principal problema abordado é a integração de sistemas de Inteligência Artificial, como o Athos, no processo judicial brasileiro, especificamente no rito dos recursos repetitivos, e sua incompatibilidade com o devido processo legal tecnológico devido à falta de transparência, explicabilidade e supervisão humana adequada. Isso gera riscos de prejuízos aos jurisdicionados e a necessidade de repensar o sistema processual.

Metodologia

A pesquisa utilizou o método dedutivo, com abordagem qualitativa para análise de dados. A coleta de dados foi realizada por meio de técnicas de pesquisa documental e bibliográfica.

Principais descobertas

A IA, como ferramenta, possui limitações conceituais e operacionais, não sendo capaz de 'pensar' efetivamente. Sistemas de IA no judiciário exigem supervisão humana constante, transparência e explicabilidade. O sistema Athos não se alinha ao devido processo legal tecnológico por não fornecer informações e explicações claras aos litigantes. O Brasil carece de uma estratégia normativa para IA, apesar de princípios internacionais estabelecidos. Há risco de viés de automação e simplificação de argumentos (ngrams) na aplicação de IA judicial.

Abstract originalIdioma e formato da publicação de origem

Título: O devido processo legal tecnológico na era da inteligência artificial: uma análise do sistema Athos no rito dos recursos repetitivos Autor(es): Menezes, Éric da Rocha de Abstract: This dissertation aims to analyze the integration of the Athos system into the repetitive appeals process and its compatibility with technological due process. It hypothesizes that the use of artificial intelligence in judicial decisions has conceptual, epistemological, and operational limitations, requiring constant and careful human supervision guided by the principles of transparency and explainability, the basis for the restructuring of due process, which now demands a technological dimension. In this scenario, Athos would not be in line with technological due process, requiring better incorporation of the principles of transparency and explainability in its operation. The term "artificial intelligence" has recently regained prominence, as this technology has become established in various sectors, both public and private, and in the daily lives of the population, facilitating repetitive tasks that once consumed human time. The Brazilian Judiciary, facing the significant challenge of mass litigation, quickly incorporated various AI systems into the procedural stages, including the decision-making phase. However, despite its positive impacts, such as the ability to analyze large databases in a short time, the tool is not infallible and has the potential to cause harm to those under its jurisdiction if the procedural system is not rethought. From this perspective, the research used the deductive method, through a qualitative approach to data analysis, collected using documentary and bibliographic research techniques, in order to verify whether the Athos system provides those under its jurisdiction with access to informative elements and the databases that compose it, in a comprehensible way, as well as an explanation, through visual elements or natural language, of the path taken to reach the result, demonstrating the criteria used. The investigation identified that AI systems are capable of correlating information to offer answers, but cannot effectively think. Artificial intelligence is a tool, with the legal nature of a legal good, capable of solving problems and overcoming obstacles, regardless of having consciousness. In light of this concept, the study focused on the standardization affecting AI systems, finding that, despite the existence of a new internationally established set of principles, Brazil still lacks a normative strategy for AI. The investigation revealed essential differences between the human knowledge process and that of AI systems, specifically regarding the risk of automation bias, which requires a new phase of justification. With respect to Athos, the study evaluated its creation and implementation, demonstrating the risk of simplifying appeal arguments through ngrams. The research identified that the incorporation of AI in the Judiciary demands the observance of transparency and explainability, resulting in a due technological legal process. Finally, the hypothesis was confirmed, considering that Athos does not provide litigants with information and explanations regarding the proposed new principles. Tipo: Dissertação

Matéria para leigosVersão editorial para divulgação pública

Para leigos: Justiça e Inteligência Artificial: O sistema Athos é transparente o suficiente?

O cenário atual

A Inteligência Artificial (IA) tem ganhado cada vez mais espaço no nosso dia a dia, ajudando a automatizar tarefas repetitivas em diversos setores, tanto públicos quanto privados. No Brasil, o Poder Judiciário enfrenta um grande volume de processos e, por isso, tem incorporado rapidamente sistemas de IA em várias etapas, inclusive na fase de tomada de decisões. Essas ferramentas podem analisar grandes quantidades de dados em pouco tempo, o que é um benefício claro. No entanto, elas não são infalíveis e podem causar problemas se não forem usadas com cuidado, especialmente quando afetam a vida das pessoas.

O que os pesquisadores fizeram

Este estudo se propôs a analisar como o sistema Athos, usado no rito dos recursos repetitivos na justiça, se encaixa no conceito de "devido processo legal tecnológico". A pesquisa partiu da ideia de que a IA, mesmo sendo útil, tem limitações em como ela pensa e opera, e por isso precisa de supervisão humana constante e atenta. Essa supervisão deve ser guiada por princípios importantes como a transparência e a explicabilidade, que são a base para o que se chama de "devido processo legal tecnológico".

Para chegar às suas conclusões, o trabalho utilizou um método de pesquisa dedutivo, com uma abordagem qualitativa para analisar os dados. As informações foram coletadas por meio de pesquisa em documentos e bibliografia existente. O objetivo era verificar se o sistema Athos oferece aos cidadãos informações claras sobre como ele funciona, quais bancos de dados utiliza e, principalmente, como ele chega a uma decisão, explicando os critérios usados de forma compreensível, seja por texto ou elementos visuais.

Como funciona na prática

O sistema Athos é uma ferramenta de Inteligência Artificial utilizada no Poder Judiciário para auxiliar no julgamento de recursos repetitivos. Esses recursos são casos que se repetem muitas vezes com a mesma questão legal, e a IA busca agilizar a análise e decisão desses processos. A ideia é que a IA ajude a identificar padrões e a correlacionar informações para oferecer respostas, facilitando o trabalho humano.

Resultados e evidência

A investigação revelou que, embora os sistemas de IA sejam capazes de correlacionar informações para dar respostas, eles não conseguem "pensar" de forma eficaz como um ser humano. A inteligência artificial é uma ferramenta, com a natureza legal de um bem jurídico, que resolve problemas sem ter consciência.

O estudo também apontou que, apesar da existência de princípios internacionais para a IA, o Brasil ainda não tem uma estratégia clara de leis e normas para regular essa tecnologia. Foram identificadas diferenças importantes entre como os humanos e os sistemas de IA adquirem conhecimento, destacando o risco de um "viés de automação", onde a decisão da máquina é aceita sem questionamento, o que exige uma nova fase de justificação.

Especificamente sobre o sistema Athos, a pesquisa avaliou sua criação e implementação e demonstrou um risco de simplificação dos argumentos dos recursos por meio de uma técnica chamada "ngrams".

Implicações práticas

A principal conclusão do estudo é que a incorporação da IA no Judiciário exige que os princípios de transparência e explicabilidade sejam rigorosamente observados. Isso leva à necessidade de um "devido processo legal tecnológico". A hipótese inicial foi confirmada: o sistema Athos, em sua forma atual, não oferece aos litigantes (as partes envolvidas nos processos) informações e explicações claras sobre como suas decisões são tomadas, de acordo com os novos princípios propostos. Isso significa que há um risco de que as decisões da IA não sejam totalmente compreendidas ou questionadas pelas pessoas afetadas.

Limitações e próximos passos

O paper não detalha explicitamente limitações do próprio estudo ou próximos passos de pesquisa. No entanto, a confirmação da hipótese sugere que o sistema Athos precisa ser aprimorado para incorporar melhor os princípios de transparência e explicabilidade em sua operação. Isso implicaria em desenvolver formas de apresentar aos cidadãos, de maneira compreensível, os elementos informativos e os bancos de dados que a IA utiliza, bem como uma explicação clara do caminho que ela percorreu para chegar a um resultado, demonstrando os critérios aplicados. A falta de uma estratégia normativa para a IA no Brasil também aponta para a necessidade de debates e criação de leis que garantam a segurança e a justiça no uso dessas tecnologias.

Quem são os pesquisadoresPerfil destilado da equipe por trás do paper

Quem são os pesquisadores

O estudo "O devido processo legal tecnológico na era da inteligência artificial: uma análise do sistema Athos no rito dos recursos repetitivos" foi desenvolvido por Éric da Rocha de Menezes. O trabalho é uma dissertação ligada à Universidade Federal do Ceará (UFC). O paper não detalha a afiliação específica do autor dentro da universidade, vínculos prévios ou sua trajetória profissional e acadêmica.

Leitura para gestão públicaComo esta pesquisa pode virar política

Os resultados são cruciais para a formulação de políticas públicas. Podem subsidiar a criação de um marco regulatório nacional para o uso de IA no setor público, com ênfase no judiciário, estabelecendo padrões obrigatórios de transparência, explicabilidade e supervisão humana. Isso incluiria diretrizes para aquisição, desenvolvimento e auditoria de sistemas de IA, visando mitigar o viés de automação e garantir a proteção dos direitos dos cidadãos.

Quem, com quem,
e pra quê

Parcerias estratégicas entre a UFC (pesquisadores da área de direito e IA) e órgãos do judiciário (e.g., STJ, TJCE) para desenvolver e implementar uma versão aprimorada do sistema Athos, ou um novo sistema, que incorpore os princípios de transparência e explicabilidade. Colaboração com empresas de Legal Tech para transformar os achados em produtos comerciais e com agências reguladoras para a criação de normativas e certificações para IA judicial.

4 direções estratégicas identificadas

  1. Startup

    Plataforma de Auditoria e Explicabilidade para IA Jurídica (XAI Legal Auditor)

    Desenvolver uma plataforma SaaS que audita e gera explicações transparentes para decisões de IA em sistemas jurídicos, garantindo conformidade com o devido processo legal tecnológico e mitigando vieses.

    Impacto alto · Inteligência Artificial
  2. Política Pública

    Marco Regulatório Nacional para IA no Judiciário

    Elaborar e implementar um conjunto de normas e diretrizes obrigatórias para o uso de IA em processos judiciais, focando em transparência, explicabilidade, supervisão humana e proteção de dados, com base nos princípios do devido processo legal tecnológico.

    Impacto alto · Govtech
  3. Parceria

    Programa de Melhoria Contínua de IA Judicial UFC-Judiciário

    Estabelecer uma parceria entre a UFC e tribunais (e.g., STJ, TJCE) para pesquisa e desenvolvimento de novas versões de sistemas de IA (como o Athos), incorporando os princípios de transparência e explicabilidade, com foco em testes práticos e validação.

    Impacto alto · Inteligência Artificial
  4. Produto Corporativo

    Módulo de Conformidade e Explicabilidade para Legal Tech

    Empresas de Legal Tech podem desenvolver módulos ou APIs que se integram a seus produtos existentes, adicionando funcionalidades de explicabilidade e conformidade regulatória para sistemas de IA, atendendo à demanda por soluções éticas e transparentes.

    Impacto médio · Software