Foi entregue ao Senado, em dezembro de 2022, o substitutivo dos três projetos de lei que visavam regulamentar a inteligência artificial (IA) no Brasil (PL 5051/19, PL 21/20 e PL 872/21).

Elaborado por 18 juristas, o novo anteprojeto possui 45 artigos e está incluído no relatório final da comissão de juristas criada pelo Senado Federal, que fundamenta e pormenoriza toda a metodologia utilizada na elaboração do texto. O anteprojeto adota uma abordagem menos genérica e principiológica, sendo mais objetivo em relação às obrigações a serem cumpridas pelos entes regulados.

Entre as alterações introduzidas pela nova proposta destacam-se (i) a previsão de uma classificação de risco dos sistemas de IA; (ii) o rol de direitos dos afetados por decisões automatizadas; (iii) o estabelecimento de uma estrutura de governança; (iv) e a existência de autoridade competente para implementar a lei, fiscalizar e impor sanções administrativas.

No tocante à gradação de riscos, trata-se de tendência das regulações atuais, seguindo a lógica de quanto maior o risco para as pessoas e a sociedade como um todo, aumenta-se a necessidade de adotar medidas de governança. Nesse sentido, o projeto veda sistemas de risco excessivo e determina que sistemas de IA que representem alto risco, apenas poderão operar e funcionar se, em contrapartida, tiverem maior quantidade de obrigações.

Quanto ao rol de direitos das pessoas naturais que sejam afetadas pelos sistemas de IA, o projeto estabelece que esses devem ser observados por todos os fornecedores e operadoras desse tipo de sistema, podendo, inclusive, ser oponíveis perante as autoridades administrativas e judiciais competentes. Ressalta-se, ainda, que, tais direitos independem da gradação de risco, a sua aplicação se dará sempre que a pessoa for afetada por um sistema de IA.

Consoante pode ser observado, o projeto propõe que as pessoas afetadas por inteligência artificial tenham os seguintes direitos: (1) direito à informação prévia quanto a interações com sistemas de IA; (2) direito a uma explicação sobre a decisão, recomendação ou previsão tomada por esse sistema; (3) direito de contestar decisões ou previsões de IA que produzam efeitos jurídicos ou impactem de maneira significativa os interesses do afetado; (4) direito à determinação e participação humana em decisões, levando-se em conta o contexto e o estado-da-arte de desenvolvimento tecnológico; (5) direito à não discriminação e correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos; (6) direito à privacidade e proteção de dados pessoais nos termos da legislação pertinente.

Ademais, o referido substitutivo também faz referência a uma estrutura de governança em inteligência artificial. Para tanto, prescreve um conjunto de medidas de governança e processos internos que devem ser adotados pelos agentes que disponibilizam esses sistemas, dentre eles: documentação; registro automático da operação do sistema; testes de confiabilidade; gestão de dados para mitigar e prevenir vieses discriminatórios; avaliação dos dados com medidas de controle e corretivas; composição de equipe inclusiva responsável pela concepção e; desenvolvimento do sistema e medidas técnicas para viabilizar os resultados.

Além dessas medidas, há também indicação de uma autoridade nacional competente para zelar pela implementação e fiscalização da lei, bem como previsão de obrigações adicionais no caso de sistemas de IA de alto risco e implementados pelo Estado, a saber: realização de consulta e audiência públicas prévias; definição de protocolos de acesso e de utilização do sistema; uso de dados provenientes de fontes seguras; garantia facilitada e efetiva ao direito de explicação e revisão humanas; utilização de interface de programa de aplicativo (API) que permita a utilização por outros sistemas; e publicização em veículos de fácil acesso das avaliações preliminares e relatórios de impacto.

Outro ponto de destaque, diz respeito à previsão de uma série de sanções administrativas a fim de garantir o cumprimento da norma, tais como: advertência; aplicação de multa limitada a 50 milhões de reais por infração, sendo que no caso de pessoa jurídica de direito privado, pode ser de até 2% (dois por cento) de seu faturamento; publicização da infração após sua confirmação; proibição ou restrição para participar de regime de sandbox; suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial; e proibição de tratamento de determinadas bases de dados.

Importa salientar que a aplicação dessas sanções administrativas não substitui ou exclui a adoção de outras sanções administrativas, civis ou penais, previstas no Código de Defesa do Consumidor (CDC), na LGPD e em outros dispositivos legais.

O texto traz, ainda, disposição acerca dos sistemas de identificação biométrica à distância em espaços públicos que tenham finalidade de segurança pública, como o reconhecimento facial, definindo como exigência para a sua utilização a prévia aprovação de lei federal que discipline o tema.

A responsabilidade civil é outro tópico tratado pelo mencionado anteprojeto. Optou-se por um regime que abrange tanto o fornecedor quanto o operador de sistema de IA, evidenciando que sempre que algum desses agentes causar dano patrimonial, moral, individual ou coletivo, deverá repará-lo integralmente, independentemente do grau de autonomia do sistema. Prescreve também uma distinção de responsabilização de acordo com a gradação do risco imposto pelo sistema, de modo que quando o sistema de IA for de alto risco ou risco excessivo, fornecedor e operador responderão objetivamente pelos danos. Quando não for de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.

Ocorre que, segundo especialistas na área, muitos pontos do projeto levantam dúvidas. Um deles seria a burocracia excessiva e o retrabalho quando a questão envolver mais de uma alçada, para além da IA. Uma possível solução para tanto seria aproveitar estruturas de adequação já existentes.

Outra situação que gera muitas incertezas é o cenário de um incidente que abarque tanto o uso de inteligência artificial quanto o uso de dados pessoais, uma vez que, nesse caso, estruturas e processos em duplicidade podem ser requeridos, dando ensejo a uma dupla penalização. A determinação de uma ação conjunta e coordenada dos órgãos fiscalizadores ou mesmo uma concentração de poderes na ANPD poderia sanar a questão, mas ainda não temos qualquer resposta definitiva sobre o assunto.

O referido anteprojeto ainda está sujeito a alterações ao longo do processo legislativo, de modo que a sua redação final pode ainda ser modificada.

A equipe do Campos Thomaz & Meirelles Advogados está atenta às novidades legislativas e se encontra à disposição para dirimir dúvidas e assessorá-los sobre o tema.

*

compartilhe

LinkedInFacebookTwitterWhatsApp

newsletter

Inscreva-se em nossa newsletter e receba em primeira mão todos os nossos informativos

    Ao informar meus dados, concordo com a Política de Privacidade.