Jurimetria e seus impactos no Princípio da Paridade de Armas
“Jurimetria e seus impactos no Princípio da Paridade de Armas”
por Fábio Faria Campista foi publicado na Revista de Análise Econômica do Direito.
CAMPISTA, Fabio Farias. A Jurimetria e seus impactos no princípio da “Paridade de armas”.
A Revista de Análise Econômica do Direito – vol. 8 (julho-dezembro 2024) publicou na sua mais recente edição artigo elaborado por nosso sócio Fabio Campista, que trata da “Jurimetria e seus impactos no Princípio da Paridade de Armas”.
Em síntese, a jurimetria já é uma realidade no Direito e, em especial, na advocacia. Nesse contexto, o texto traz reflexões sobre se o seu uso — a curto, médio e longo prazos — contribui, é indiferente ou diminui a paridade de armas dos sujeitos envolvidos em um litígio civil, dado tratar-se de uma das garantias fundamentais para um processo justo.
Fabio é Mestre em Direito Processual pela Universidade do Estado do Rio de Janeiro (UERJ) e Pós-Graduado em Direito Digital pelo Instituto de Tecnologia e Sociedade em parceria com a UERJ e o CEPED
RESUMO
A legislação francesa proibiu, inclusive tornando crime, a divulgação do resultado de pesquisas jurimétricas sobre a jurisprudência, a identidade e o modo de decidir dos magistrados integrantes de seus tribunais. A medida causou estranheza na comunidade jurídica, principalmente porque a Jurimetria já é uma realidade no estudo e na prática quotidiana do Direito, assim como atenta contra os princípios da transparência e da liberdade de informação, o qual, este último, encontra na França suas raízes histórico-culturais. É preciso entender, então, o que é Jurimetria, sua importância, seus principais aspectos e propósitos; como se relaciona com o Direito, especialmente o Direito Processual; e, se se trata de um instrumento que deva ser proibido, admitido ou incentivado. Mais especificamente, o presente estudo se propõe a investigar se a Jurimetria impacta o princípio da “Paridade de armas” no Processo Civil brasileiro, e de que maneira: positiva ou negativa. A pesquisa, com abordagens qualitativa, descritiva, bibliográfica e exploratória, admite a interdisciplinaridade no estudo do Direito — sendo a Jurimetria uma nova disciplina a ser considerada —, explora a teoria dos precedentes formalmente vinculantes, descortinando o propósito em comum na busca dos ideais de segurança jurídica, previsibilidade e igualdade na aplicação do Direito, sem se descuidar de contextualizar o princípio da “Paridade de armas” no Direito Processual Civil brasileiro como uma das garantias fundamentais ao processo justo. Finalmente, conclui que a utilização da Jurimetria incial e provavelmente impactará negativamente a “Paridade de armas”, mas a médio e longo prazos contribuirá para dar maior efetividade e concretude a esse princípio.
Palavras-chave: Jurimetria. Direito Processual Civil. Paridade de armas.
DIA INTERNACIONAL DA PROTEÇÃO DE DADOS
A complexidade e sofisticação da inteligência artificial de atuação autônoma crescem em dicotomia com a possibilidade da codificação ser potencializada pela interação com o meio. Isto faz urgir a necessidade de definições legais sobre os limites de responsabilidade dos comandos autônomos e os erros não previstos.
Inteligência artificial, responsabilidade civil e legislação
Emergiu, então, a importância de se permear as hipóteses de problemas delituais e contratuais dos entes dotados de inteligência artificial, e encontrar as vias de solução para os suprir, estabelecendo as bases de imputação da responsabilidade civil, assim como a indispensável intervenção do legislador aos problemas colocados pela inteligência artificial e, agora, a inteligência generativa.
O segredo de negócios, por sua vez, é um instrumento jurídico que protege informações confidenciais utilizadas em atividades comerciais ou industriais, conferindo às empresas uma vantagem competitiva. No Brasil, a Lei de Propriedade Industrial (LPI), nº 9.279, de 1996, é responsável por regular a proteção de segredos comerciais e industriais, e a LGPD também reconhece a importância de observar o segredo de negócios no tratamento de dados pessoais.
Contudo, a relação entre a LGPD e o segredo de negócios torna-se ainda mais complexa com a utilização da IA, uma vez que esta impulsiona a coleta e o processamento massivo de dados, muitos deles de natureza pessoal, através dos seus sistemas de algoritmos complexos para analisar esses dados, gerar insights e tomar decisões automatizadas, impactando a vida das pessoas de forma cada vez mais significativa.
Soluções técnicas e desafios éticos
As diversas arquiteturas oferecem uma ampla gama de soluções para os desafios decorrentes da integração entre IA e privacidade de dados na sociedade digital contemporânea, como o machine learning, deep Learning, redes neurais artificiais, reconhecimento de padrões (PR), aprendizado de máquina (ML), big data analytics (BDA), dentre outros. Uma compreensão aprofundada de suas características e aplicações é crucial para a implementação ética e eficiente de sistemas de IA, especialmente em um panorama em que a proteção dos dados pessoais é regulamentada e reconhecida como direito fudamental.
A discussão sobre os riscos de violação da privacidade, com medidas defensivas para salvaguardar a privacidade dos usuários e a segurança dos dados contra o uso indevido e ataques maliciosos, tem sido fervorosa, culminando no Projeto de Lei de nº 2338, de 2023, conhecido como “PL da Inteligência Artificial”, que visa a estabelecer diretrizes e normas para o uso de tecnologias de inteligência artificial no Brasil, e tendo sido aprovado no Senado no apagar das luzes do ano de 2024. O Projeto foi considerado um passo importantíssimo para regular o uso da IA no Brasil por representar um consenso de setores essenciais para a sociedade como indústria, órgãos protetivos, entidades não governamentais, academias e juristas, o qual aborda, dentre outros pontos, a responsabilidade civil pelos danos causados por sistemas autônomos, os direitos dos usuários e a segurança dos sistemas, além da busca de uma regulação mais clara em relação à responsabilidade civil das partes envolvidas no desenvolvimento, operação e utilização destes entes.
O texto legal propõe a adoção da responsabilidade civil objetiva aos danos causados por IA, o que significa que os responsáveis pelos sistemas podem ser responsabilizados independentemente de culpa, se houver dano, cujo ponto central é garantir a compensação das vítimas de danos causados pelas falhas, omissões preditivas ou violações de privacidade. No tocante à transparência e rastreabilidade, o projeto também reforça a importância da transparência dos algoritmos e a rastreabilidade dos sistemas de IA, o que facilita a atribuição de responsabilidade, prevendo, também, a responsabilidade solidária entre os fornecedores, desenvolvedores e operadores de IA, ou seja, de todos os envolvidos na cadeia de criação e utilização da IA, a partir da análise do caso concreto.
Proposta de responsabilidade objetiva e remuneração de direitos autorais
Uma outra novidade é a remuneração dos titulares pelo uso de obras e conteúdos protegidos, cabendo ao agente de IA que utilizar obras e conteúdos protegidos remunerar os respectivos titulares de direitos autorais e conexos pelo uso, debatendo sobre os direitos autorais e quesitos de reserva de negócio e privacidade, ponto ainda não unânime no projeto. Aos próximos passos, caberá ao presidente da Câmara determinar quais comissões analisarão o projeto, se será apensado ou não a outras proposições, se será formada ou não comissão especial temporária para análise do teor, portanto são diversas variáveis, e a tramitação também pode sofrer alterações durante o processo legislativo.
A regulação e o papel da ANPD
No Dia internacional da Privacidade de Dados, reforça-se, sobretudo, a importância da regulação e o papel preponderante da Agência Nacional de Proteção de Dados (ANPD) na mitigação de riscos decorrentes do tratamento automatizado de dados, com fulcro no panorama dos seus feitos, e na busca do equilíbrio entre os avanços incontestáveis trazidos pela IA e os pilares fundamentais da privacidade, ética e segurança dos titulares de dados.