Vault Research

Comissão do Senado pode aprovar projeto com três níveis de regulamentação de IA no Brasil

Texto estabelece classificação de risco em função das diferentes áreas.

A Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado Federal pode votar nesta terça-feira (9) o relatório do senador Eduardo Gomes (PL-TO) sobre a regulamentação da inteligência artificial (IA) no Brasil, proposta que, caso aprovada, deve chegar ao plenário da Casa Legislativa com três níveis de regulamentação, definidos a partir do risco à sociedade.

Após adiamento da votação para essa semana, os membros da CTIA devem apreciar o substitutivo de Gomes ao Projeto de Lei (PL) 2.338/2023, do senador Rodrigo Pacheco (PSD-MG), e  outras nove propostas que tramitam em conjunto. Texto que cria regras diferentes para faixas regulatórias definidas de acordo com o risco à sociedade. Caso aprovado, o substitutivo segue para o plenário do Senado e, depois, para a Câmara dos Deputados. 

Nesse caso, o sistema de IA pode ser considerado de “risco excessivo”, que será proibido; de “alto risco”, que será controlado; ou não estar em nenhuma das duas categorias. Para determinar o risco, um sistema de IA deverá passar por uma avaliação preliminar feita pelos próprios desenvolvedores, fornecedores ou operadores.

Pela proposta atual, fica proibido o desenvolvimento implementação e uso de IA em atividades consideradas de “risco excessivo”, como uso de armas autônomas, que podem atacar alvos sem intervenção humana, e uso de câmeras em espaço público para identificar pessoas, salvo se para buscar pessoas desaparecidas, ou certos casos de segurança pública e justiça criminal.

Por sua vez, o uso de sistemas de IA de alto risco pode ser permitido, mas estará sujeito a regras mais rígidas que os sistemas de IA comuns. Nesse caso, o texto prevê a necessidade de registro das operações realizadas, testes de confiabilidade e elaboração de uma “avaliação de impacto algorítmico” sobre os direitos fundamentais a ser entregue aos órgãos fiscalizadores. Situação em que estão enquadrados veículos autônomos, sistemas que auxiliem em diagnósticos ou procedimentos médicos, uso de IA na aplicação da lei, entre outros.

Um dos princípios do regulamento atual, a proteção do trabalho será observada por um Conselho de Cooperação Regulatória e Inteligência Artificial, que produzirá diretrizes para reduzir potenciais riscos aos trabalhadores. Além disso, o projeto traz normas sobre direitos autorais, que enfrenta desafios diante das IA generativas que produzem imagens e textos. Conteúdos protegidos por direitos autorais poderão ser utilizados no desenvolvimento do sistema de IA desde que obtidos de forma legítima e sem fins comerciais, observados outros requisitos.

SIA, Estado e Direito

Segundo a Agência Senado, o projeto prevê um conjunto de órgãos que devem trabalhar de modo integrado com o intuito de regular o mercado da inteligência artificial. Eles integrarão o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), criada pela Lei 13.853/2019. Segundo o relator, o projeto prevê a regulação de uma forma mais genérica e atribui aos órgãos reguladores de cada setor da economia estipular regras mais específicas.

O texto traz regras específicas para o uso de IA pelo Estado. Entre outros direitos, os cidadãos poderão exigir explicação e revisão humana das decisões que tiverem impacto jurídico relevante. No caso de uso de sistemas que façam identificação biométrica, deverá haver a garantia de proteção contra discriminação ilegal ou abusiva. A IA também deve ser usada, preferencialmente, em formatos abertos e livres, de modo a evitar a dependência tecnológica.

O substitutivo apresentado por Eduardo Gomes tem 12 capítulos que englobam temas diretivos a serem observados, como transparência, cooperação internacional, crescimento inclusivo e proteção ao meio ambiente. O projeto ainda assegura uma série de direitos para as pessoas que forem afetadas pelos sistemas de inteligência artificial, como: direito à informação prévia quanto a suas interações com sistemas de IA; direito à privacidade e à proteção de dados pessoais;  direito à participação de humanos em decisões de IA, conforme o contexto.

Em outra frente, a UFF desenvolveu uma ferramenta de IA capaz de identificar fake news com 94% de precisão, conforme noticiou o Cointelegraph Brasil.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *