A nova versão do relatório que pode criar um marco legal para inteligência artificial no país proibiu o uso de armas autônomas e revisou o rol de atividades consideradas de alto risco, excluindo itens como a avaliação de crédito por IA.
O novo parecer do senador Eduardo Gomes (PL-TO), divulgado na sexta-feira (7), aumenta o texto da lei de 33 para 43 páginas e, entre outros pontos, descartou o trecho que permite o uso de armas letais autônomas com “controle humano significativo”.
Para Bruno Bioni, diretor da Data Privacy Brasil, organização dedicada aos estudos de proteção de dados e direito digital, o avanço é importante, tendo em vista que esse tipo de tecnologia não apresenta controles ético-legais nos projetos possíveis.
“Sob o ponto de vista de proteção de direitos, o novo substitutivo proíbe totalmente armas letais autônomas. Diferentemente do texto preliminar de abril, que abriu margem para a sua adoção se houvesse algum tipo de controle humano significativo. É um avanço muito importante”, diz.
A coordenadora de IA da Coalizão Direitos na Rede, Paula Guedes, afirma que a mudança é significativa, mas ressalta que o uso de sistemas de reconhecimento facial à distância em tempo real (mantido pelo relator) ainda é problemático.
Desde a primeira versão do parecer, em abril, os especialistas apontaram para os riscos do uso de ferramentas de reconhecimento facial na segurança pública diante da alta taxa de erros causados principalmente pelo racismo algorítmico —viés de imprecisão contra pessoas negras devido à prevalência de brancos em bancos de imagens disponíveis.
Guedes também chama atenção para a exclusão da avaliação da capacidade de individualização de pessoas e empresas do papel de atividades de alto risco.
“Isso seria importante em razão da essencialidade do crédito como condição de acesso a serviços e bens como saúde, além do histórico de vazamento de dados pela multidimensionalidade de dados de entrada [inseridos] nos modelos de crédito”, avaliação.
Entre as novidades do texto, Bioni também destaca a criação de um painel de especialistas e cientistas de inteligência artificial. Ele afirma, no entanto, que o painel deveria ser incorporado ao chamado SIA, Sistema Nacional de Regulação e Governança de Inteligência Artificial —que será criado, se o projeto for aprovado.
“Um exemplo do que está propondo a ONU é necessário ciência e dados para reduzir a assimetria de informação sobre quais são os riscos e benefícios desta tecnologia. Ao invés de estar na disposição transitória, esse painel poderia fazer parte do SIA e com isso ser mais permeável às demandas cívicas-sociais”, diz.
O texto será debatido na terça-feira (11) no plenário do Senado e pode ser votado na quarta (12) na comissão temporária dedicada ao tema. A expectativa é que a votação no plenário do Senado ocorra no dia 18. Se for aprovado, o projeto será enviado à Câmara dos Deputados.
A lista de convidados para sessão de debates ainda não foi divulgada oficialmente, mas uma relação prévia foi agendada para alerta de especialistas devido à falta de debatedores negros.
Em nota, o coletivo AqualtuneLab, que atua nas áreas de direito, tecnologia e raça, afirmou que é inadmissível excluir especialistas negros sobre um tema no qual a população negra tem sido especialmente afetada devido ao racismo algorítmico.
“Foi desconsiderado pela organização do ciclo de debates todo o acúmulo de pesquisadores negros e negros sobre o tema tão sensível. Pessoas negras têm sido especialmente prejudicadas na razão do racismo algorítmico, amplamente descrito em várias modalidades de discriminação.”
Questionada sobre a relação dos participantes, a assessoria de imprensa do relator informou que o debate está sendo coordenado pela Secretaria Geral da Mesa do Senado. A reportagem pedia a relação de participantes ao Senado, mas não houve retorno até a publicação deste texto.