foto-socio-fabio-campista

Jurimetria e seus impactos no Princípio da Paridade de Armas

Month: janeiro 2025


“Jurimetria e seus impactos no Princípio da Paridade de Armas”

por Fábio Faria Campista foi publicado na Revista de Análise Econômica do Direito.

CAMPISTA, Fabio Farias. A Jurimetria e seus impactos no princípio da “Paridade de armas”.

 

A Revista de Análise Econômica do Direito – vol. 8 (julho-dezembro 2024) publicou na sua mais recente edição artigo elaborado por nosso sócio Fabio Campista, que trata da “Jurimetria e seus impactos no Princípio da Paridade de Armas”.

Em síntese, a jurimetria já é uma realidade no Direito e, em especial, na advocacia. Nesse contexto, o texto traz reflexões sobre se o seu uso — a curto, médio e longo prazos — contribui, é indiferente ou diminui a paridade de armas dos sujeitos envolvidos em um litígio civil, dado tratar-se de uma das garantias fundamentais para um processo justo.

Fabio é Mestre em Direito Processual pela Universidade do Estado do Rio de Janeiro (UERJ) e Pós-Graduado em Direito Digital pelo Instituto de Tecnologia e Sociedade em parceria com a UERJ e o CEPED

RESUMO

A legislação francesa proibiu, inclusive tornando crime, a divulgação do resultado de pesquisas jurimétricas sobre a jurisprudência, a identidade e o modo de decidir dos magistrados integrantes de seus tribunais. A medida causou estranheza na comunidade jurídica, principalmente porque a Jurimetria já é uma realidade no estudo e na prática quotidiana do Direito, assim como atenta contra os princípios da transparência e da liberdade de informação, o qual, este último, encontra na França suas raízes histórico-culturais. É preciso entender, então, o que é Jurimetria, sua importância, seus principais aspectos e propósitos; como se relaciona com o Direito, especialmente o Direito Processual; e, se se trata de um instrumento que deva ser proibido, admitido ou incentivado. Mais especificamente, o presente estudo se propõe a investigar se a Jurimetria impacta o princípio da “Paridade de armas” no Processo Civil brasileiro, e de que maneira: positiva ou negativa. A pesquisa, com abordagens qualitativa, descritiva, bibliográfica e exploratória, admite a interdisciplinaridade no estudo do Direito — sendo a Jurimetria uma nova disciplina a ser considerada —, explora a teoria dos precedentes formalmente vinculantes, descortinando o propósito em comum na busca dos ideais de segurança jurídica, previsibilidade e igualdade na aplicação do Direito, sem se descuidar de contextualizar o princípio da “Paridade de armas” no Direito Processual Civil brasileiro como uma das garantias fundamentais ao processo justo. Finalmente, conclui que a utilização da Jurimetria incial e provavelmente impactará negativamente a “Paridade de armas”, mas a médio e longo prazos contribuirá para dar maior efetividade e concretude a esse princípio.

 

Palavras-chave: Jurimetria. Direito Processual Civil. Paridade de armas.


protecao-de-dados

DIA INTERNACIONAL DA PROTEÇÃO DE DADOS

Month: janeiro 2025


 Por Fabiane P. de Sá Ferreira

A complexidade e sofisticação da inteligência artificial de atuação autônoma crescem em dicotomia com a possibilidade da codificação ser potencializada pela interação com o meio. Isto faz urgir a necessidade de definições legais sobre os limites de responsabilidade dos comandos autônomos e os erros não previstos.

Inteligência artificial, responsabilidade civil e legislação

Emergiu, então, a importância de se permear as hipóteses de problemas delituais e contratuais dos entes dotados de inteligência artificial, e encontrar as vias de solução para os suprir, estabelecendo as bases de imputação da responsabilidade civil, assim como a indispensável intervenção do legislador aos problemas colocados pela inteligência artificial e, agora, a inteligência generativa.  

O segredo de negócios, por sua vez, é um instrumento jurídico que protege informações confidenciais utilizadas em atividades comerciais ou industriais, conferindo às empresas uma vantagem competitiva. No Brasil, a Lei de Propriedade Industrial (LPI), nº 9.279, de 1996, é responsável por regular a proteção de segredos comerciais e industriais, e a LGPD também reconhece a importância de observar o segredo de negócios no tratamento de dados pessoais.

Contudo, a relação entre a LGPD e o segredo de negócios torna-se ainda mais complexa com a utilização da IA, uma vez que esta impulsiona a coleta e o processamento massivo de dados, muitos deles de natureza pessoal, através dos seus sistemas de algoritmos complexos para analisar esses dados, gerar insights e tomar decisões automatizadas, impactando a vida das pessoas de forma cada vez mais significativa.

Soluções técnicas e desafios éticos

 As diversas arquiteturas oferecem uma ampla gama de soluções para os desafios decorrentes da integração entre IA e privacidade de dados na sociedade digital contemporânea, como o machine learning, deep Learning, redes neurais artificiais, reconhecimento de padrões (PR), aprendizado de máquina (ML), big data analytics (BDA), dentre outros. Uma compreensão aprofundada de suas características e aplicações é crucial para a implementação ética e eficiente de sistemas de IA, especialmente em um panorama em que a proteção dos dados pessoais é regulamentada e reconhecida como direito fudamental.

 A discussão sobre os riscos de violação da privacidade, com medidas defensivas para salvaguardar a privacidade dos usuários e a segurança dos dados contra o uso indevido e ataques maliciosos, tem sido fervorosa, culminando no Projeto de Lei de nº 2338, de 2023, conhecido como “PL da Inteligência Artificial”, que visa a estabelecer diretrizes e normas para o uso de tecnologias de inteligência artificial no Brasil, e tendo sido aprovado no Senado no apagar das luzes do ano de 2024. O Projeto foi considerado um passo importantíssimo para regular o uso da IA no Brasil por representar um consenso de setores essenciais para a sociedade como indústria, órgãos protetivos, entidades não governamentais, academias e juristas, o qual aborda, dentre outros pontos, a responsabilidade civil pelos danos causados por sistemas autônomos, os direitos dos usuários e a segurança dos sistemas, além da busca de uma regulação mais clara em relação à responsabilidade civil das partes envolvidas no desenvolvimento, operação e utilização destes entes.

O texto legal propõe a adoção da responsabilidade civil objetiva aos danos causados por IA, o que significa que os responsáveis pelos sistemas podem ser responsabilizados independentemente de culpa, se houver dano, cujo ponto central é garantir a compensação das vítimas de danos causados pelas falhas, omissões preditivas ou violações de privacidade. No tocante à transparência e rastreabilidade, o projeto também reforça a importância da transparência dos algoritmos e a rastreabilidade dos sistemas de IA, o que facilita a atribuição de responsabilidade, prevendo, também, a responsabilidade solidária entre os fornecedores, desenvolvedores e operadores de IA, ou seja, de todos os envolvidos na cadeia de criação e utilização da IA, a partir da análise do caso concreto.

Proposta de responsabilidade objetiva e remuneração de direitos autorais

 Uma outra novidade é a remuneração dos titulares pelo uso de obras e conteúdos protegidos, cabendo ao agente de IA que utilizar obras e conteúdos protegidos remunerar os respectivos titulares de direitos autorais e conexos pelo uso, debatendo sobre os direitos autorais e quesitos de reserva de negócio e privacidade, ponto ainda não unânime no projeto. Aos próximos passos, caberá ao presidente da Câmara determinar quais comissões analisarão o projeto, se será apensado ou não a outras proposições, se será formada ou não comissão especial temporária para análise do teor, portanto são diversas variáveis, e a tramitação também pode sofrer alterações durante o processo legislativo.

A regulação e o papel da ANPD

 No Dia internacional da Privacidade de Dados, reforça-se, sobretudo, a importância da regulação e o papel preponderante da Agência Nacional de Proteção de Dados (ANPD) na mitigação de riscos decorrentes do tratamento automatizado de dados, com fulcro no panorama dos seus feitos, e na busca do equilíbrio entre os avanços incontestáveis trazidos pela IA e os pilares fundamentais da privacidade, ética e segurança dos titulares de dados.