- A CTIA do Senado está revisando um projeto que regula o uso de IA no Brasil
- O documento busca, portanto, proteger os direitos fundamentais, promover inovação e desenvolvimento tecnológico no país
- O projeto também prevê a regulamentação das atividades de segurança pública, permitindo o uso de sistemas de identificação biométrica à distância com autorização judicial
A Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) do Senado está revisando um projeto que regula o uso da tecnologia no Brasil. O relator Eduardo Gomes (PL-TO) apresentou o relatório preliminar e pode alterá-lo até o dia 9 de maio. O texto representa uma proposta “alternativa”, a qual combina várias sugestões sobre o assunto. Assim, incluindo a do presidente da Casa, Rodrigo Pacheco (PSD-MG). O prazo final para conclusão dos trabalhos é 23 de maio.
Em 2023, Pacheco criou a Comissão com o objetivo de estabelecer normas que garantam a segurança e confiabilidade das ferramentas de IA, visando beneficiar a pessoa humana, o regime democrático e o desenvolvimento científico e tecnológico. O senador Carlos Viana lidera a equipe em audiências públicas sobre o uso de tecnologias em diversos setores profissionais e sociais.
Segundo o relator, o documento busca proteger os direitos fundamentais e promover inovação e desenvolvimento tecnológico no país. Gomes, ainda, enfatiza a importância de distinguir o humano do artificial para preservar o “jeito criativo brasileiro” e a “integridade da informação”. Portanto, o texto aborda direitos autorais, privacidade, correção de vieses para evitar discriminação, proteção aos trabalhadores e incentivo à inovação sustentável.
Após análise pela comissão temporária, o texto será debatido, portanto, no plenário. Se aprovado, seguirá para a Câmara dos Deputados, onde pode enfrentar obstáculos. O presidente da Câmara, Arthur Lira, expressou preocupação de que o projeto do Senado possa prejudicar, contudo, aos desenvolvedores de IA.
A regulamentação da IA no Brasil
O projeto define bases para o uso da IA, priorizando a centralidade da pessoa humana, respeito aos direitos humanos, democracia e liberdade de expressão. Também enfatiza a proteção ambiental, igualdade, valorização do trabalho, desenvolvimento econômico e tecnológico, privacidade e acesso à informação. Para isso, propõe supervisão humana nos ciclos de vida das ferramentas, transparência e responsabilidade dos desenvolvedores, além de prevenção e mitigação de riscos. Garante, contudo, o direito à informação prévia para quem interage com IA.
Há quatro casos específicos em que a lei não se aplica: quando o uso das ferramentas é para fins particulares e não econômicos, para a defesa nacional, quando têm formatos abertos e livres (exceto aqueles considerados de alto risco). E ainda, quando integram atividades de testagem fora do mercado.
O projeto prevê a regulamentação das atividades de segurança pública, permitindo o uso de sistemas de identificação biométrica à distância com autorização judicial. As autoridades, contudo, podem usar a tecnologia para buscar vítimas de crime ou desaparecidos e para perseguir crimes graves. Para garantir o cumprimento da lei, estabelece-se o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), sob coordenação de autoridade federal designada. O SIA, portanto, definirá critérios para avaliar os sistemas de IA e os desenvolvedores serão obrigados a compartilhar dados sobre o impacto dos algoritmos.
Violações
A empresa que desenvolve uma IA de alto risco, afetando direitos, liberdades ou grupos vulneráveis, deve colaborar, dessa forma, com o poder público para testes de confiabilidade e monitoramento contínuo.
As sanções para violações incluem advertência, multa de até R$ 50 milhões ou 2% do faturamento, publicização da irregularidade, proibição do uso de sandbox por até cinco anos, suspensão do desenvolvimento e fornecimento de IA, e restrições ao tratamento de certos dados. A LGPD pode enquadrar as violações. A empresa é responsável por reparar danos coletivos ou individuais, independentemente do grau de autonomia do sistema. Exclui-se, no entanto, a responsabilidade em casos de terceiros intencionais.
O marco regulatório da IA prevê a adoção de medidas de governança e autorregulação pelas iniciativas privadas. Elas devem estabelecer, assim, critérios técnicos e compartilhar documentações com o SIA, especialmente sobre riscos não mitigáveis e impactos ambientais e sociais.