A complexidade e sofisticação da inteligência artificial de atuação autônoma crescem em dicotomia com a possibilidade da codificação ser potencializada pela interação com o meio. Isto faz urgir a necessidade de definições legais sobre os limites de responsabilidade dos comandos autônomos e os erros não previstos.
Inteligência artificial, responsabilidade civil e legislação
Emergiu, então, a importância de se permear as hipóteses de problemas delituais e contratuais dos entes dotados de inteligência artificial, e encontrar as vias de solução para os suprir, estabelecendo as bases de imputação da responsabilidade civil, assim como a indispensável intervenção do legislador aos problemas colocados pela inteligência artificial e, agora, a inteligência generativa.
O segredo de negócios, por sua vez, é um instrumento jurídico que protege informações confidenciais utilizadas em atividades comerciais ou industriais, conferindo às empresas uma vantagem competitiva. No Brasil, a Lei de Propriedade Industrial (LPI), nº 9.279, de 1996, é responsável por regular a proteção de segredos comerciais e industriais, e a LGPD também reconhece a importância de observar o segredo de negócios no tratamento de dados pessoais.
Contudo, a relação entre a LGPD e o segredo de negócios torna-se ainda mais complexa com a utilização da IA, uma vez que esta impulsiona a coleta e o processamento massivo de dados, muitos deles de natureza pessoal, através dos seus sistemas de algoritmos complexos para analisar esses dados, gerar insights e tomar decisões automatizadas, impactando a vida das pessoas de forma cada vez mais significativa.
Soluções técnicas e desafios éticos
As diversas arquiteturas oferecem uma ampla gama de soluções para os desafios decorrentes da integração entre IA e privacidade de dados na sociedade digital contemporânea, como o machine learning, deep Learning, redes neurais artificiais, reconhecimento de padrões (PR), aprendizado de máquina (ML), big data analytics (BDA), dentre outros. Uma compreensão aprofundada de suas características e aplicações é crucial para a implementação ética e eficiente de sistemas de IA, especialmente em um panorama em que a proteção dos dados pessoais é regulamentada e reconhecida como direito fudamental.
A discussão sobre os riscos de violação da privacidade, com medidas defensivas para salvaguardar a privacidade dos usuários e a segurança dos dados contra o uso indevido e ataques maliciosos, tem sido fervorosa, culminando no Projeto de Lei de nº 2338, de 2023, conhecido como “PL da Inteligência Artificial”, que visa a estabelecer diretrizes e normas para o uso de tecnologias de inteligência artificial no Brasil, e tendo sido aprovado no Senado no apagar das luzes do ano de 2024. O Projeto foi considerado um passo importantíssimo para regular o uso da IA no Brasil por representar um consenso de setores essenciais para a sociedade como indústria, órgãos protetivos, entidades não governamentais, academias e juristas, o qual aborda, dentre outros pontos, a responsabilidade civil pelos danos causados por sistemas autônomos, os direitos dos usuários e a segurança dos sistemas, além da busca de uma regulação mais clara em relação à responsabilidade civil das partes envolvidas no desenvolvimento, operação e utilização destes entes.
O texto legal propõe a adoção da responsabilidade civil objetiva aos danos causados por IA, o que significa que os responsáveis pelos sistemas podem ser responsabilizados independentemente de culpa, se houver dano, cujo ponto central é garantir a compensação das vítimas de danos causados pelas falhas, omissões preditivas ou violações de privacidade. No tocante à transparência e rastreabilidade, o projeto também reforça a importância da transparência dos algoritmos e a rastreabilidade dos sistemas de IA, o que facilita a atribuição de responsabilidade, prevendo, também, a responsabilidade solidária entre os fornecedores, desenvolvedores e operadores de IA, ou seja, de todos os envolvidos na cadeia de criação e utilização da IA, a partir da análise do caso concreto.
Proposta de responsabilidade objetiva e remuneração de direitos autorais
Uma outra novidade é a remuneração dos titulares pelo uso de obras e conteúdos protegidos, cabendo ao agente de IA que utilizar obras e conteúdos protegidos remunerar os respectivos titulares de direitos autorais e conexos pelo uso, debatendo sobre os direitos autorais e quesitos de reserva de negócio e privacidade, ponto ainda não unânime no projeto. Aos próximos passos, caberá ao presidente da Câmara determinar quais comissões analisarão o projeto, se será apensado ou não a outras proposições, se será formada ou não comissão especial temporária para análise do teor, portanto são diversas variáveis, e a tramitação também pode sofrer alterações durante o processo legislativo.
A regulação e o papel da ANPD
No Dia internacional da Privacidade de Dados, reforça-se, sobretudo, a importância da regulação e o papel preponderante da Agência Nacional de Proteção de Dados (ANPD) na mitigação de riscos decorrentes do tratamento automatizado de dados, com fulcro no panorama dos seus feitos, e na busca do equilíbrio entre os avanços incontestáveis trazidos pela IA e os pilares fundamentais da privacidade, ética e segurança dos titulares de dados.