quarta-feira, outubro 9, 2024
InícioPOLITICARegulamentação sobre IA no país não toca no essencial

Regulamentação sobre IA no país não toca no essencial



Em tramitação no Senado desde maio do ano passado, o Projeto de Lei 2338/2023, ou o Marco Legal da Inteligência Artificial (IA) no Brasil, pode ser votado até meados de junho. O debate na Casa Alta do Congresso Nacional está focado em como a tecnologia pode influenciar as eleições por meio de disseminação de mentiras. Mas questões como riscos à saúde das pessoas, empregos militares e no controle social e a própria discussão da inteligência artificial representam ou não um risco para a humanidade até agora não geram discussão pública e podem ficar de fóruns de debate político, segundo analistas ouvidos pela reportagem .

Durante seu discurso de abertura dos trabalhos legislativos desse ano, em fevereiro, o presidente do Senado, Rodrigo Pacheco (PSD-MG) disse ser imperativo regular a Inteligência Artificial e as redes sociais, “principalmente quanto à imposição de responsabilidades na veiculação de informações, a fim de mitigar externalidades negativas e potencializar benefícios à sociedade de tecnologias com potencial disruptivo exponencial”.

O advogado especialista em Direito Digital André Marsiglia avalia que o debate a respeito da Inteligência Artificial no Brasil ainda é raso e que não chega aos dilemas éticos sobre seu desenvolvimento e utilização, tal como se faz, por exemplo, em relação ao desenvolvimento da engenharia genética e de pesquisas com células tronco. Esse tipo de discussão ocorre há anos no exterior, mas passa longe dos centros de poder político brasileiros, salvo raras discussões.

Marsiglia ainda comenta que “como a compreensão sobre o tema é rasa, a opção tem sido proibir a tecnologia sem discutir-la”, como ocorreu no caso da resolução do TSE sobre os deep fakes (manipulações de vídeos feitos com Inteligência Artificial capazes de alterar o que uma pessoa está falando ou fazendo).

Em fevereiro deste ano, adiantando-se à regulação do Congresso Nacional sobre o tema, o Tribunal Superior Eleitoral (TSE) lançou uma norma inédita que proibiu o uso de falsificações profundas e tornou-se obrigatório que propagandas eleitorais que utilizam recursos de Inteligência Artificial deixem claro que a tecnologia está sendo utilizada.

Segundo o senador astronauta Marcos Pontes (PL-SP), que acompanha o desenvolvimento do Marco Legal da Inteligência Artificial no Senado, o TSE cumpriu seu papel ao tentar proteger o processo eleitoral, ainda que os pontos envolvidos pelo Tribunal não sejam o foco principal do debate sobre a inteligência artificial. “Essa discussão é somente sobre um dos efeitos que a Inteligência Artificial pode ter”, afirmou o senador. Ele disse acreditar que a “Inteligência Artificial é uma tecnologia de característica mundial que vai propiciar a maior revolução tecnológica que a espécie humana já vivenciou”.

No Senado, a previsão é que, após análise final da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), o texto vá para a apreciação do plenário, com votação prevista para o dia 18 de junho. Não que dependa de Pontes, que ocupa a vice-presidência da CTIA, a proposta da Comissão para o Projeto de Lei contemplará uma regulação mais aprofundada para o desenvolvimento, a gestão e o uso de sistemas de Inteligência Artificial no Brasil.

Senado criou comissão para debatedor Inteligência Artificial de forma mais abrangente

No Congresso, partiu do Senado Federal a iniciativa de criar uma lei abrangente para a regulação da Inteligência Artificial no Brasil. O Projeto de Lei 2338/2023 que, quando aprovado será o Marco Legal da Inteligência Artificial no Brasil é uma proposta apresentada primeiramente pelo presidente da Casa, senador Rodrigo Pacheco (PSD-MG), sendo o resultado do trabalho de uma comissão de juristas encarregada especialmente de discutir o tema.

Após a apresentação dessa proposta em maio do ano passado, o Senado avaliou que era preciso aprofundar a discussão sobre o tema e, para tanto, criou a Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA). Presidida pelo senador Carlos Viana (Podemos-MG), a Comissão realizou uma série de audiências públicas e, até dia 22 de maio, última quarta-feira, recebeu contribuições para o texto final do PL.

O relator da CTIA, o senador Eduardo Gomes (PL-TO), assim como o vice-presidente, o senador Marcos Pontes (PL-SP), elaboraram substitutivos para a proposta. Além disso, a Autoridade Nacional de Proteção de Dados (ANPD) elaborou e encaminhou para a Comissão um documento com diversas sugestões para o aprimoramento do PL.

A previsão é de que, no dia 5 de junho, o relatório final seja apresentado à Comissão, que votará a proposta no dia 12, a fim de que o Projeto de Lei seja votado no Plenário do Senado no dia 18 de junho. Após essa tramitação, o PL ainda precisa passar pela Câmara dos Deputados e, caso seja aprovado sem alterações, poderá seguir para a sanção do Presidente Luiz Inácio Lula da Silva.

Investir e desenvolver Inteligência Artificial é menos arriscado do que não desenvolvê-la, diz senador

Em entrevista ao podcast Assunto Capital da Gazeta do Povo, Pontes afirmou que as sugestões apresentadas são, na verdade, da própria comissão. Dentre as principais mudanças propostas está a previsão para o fomento de ações planejadas para o desenvolvimento da Inteligência Artificial no país, assim como uma classificação de risco mais objetiva para os programas e aplicativos que utilizam essa tecnologia.

Segundo o senador paulista, o maior risco para o Brasil é se tornar dependente de soluções de Inteligência Artificial de outros países, por não desenvolver tecnologias próprias, já que a Inteligência Artificial será desenvolvida independente da vontade ou das regras de um único país ou bloco. “Tendo em vista ser planejado o uso de Inteligência Artificial atual ou no futuro, é mais arriscado o país não usar Inteligência Artificial do que usar”, afirmou Pontes. Em relação à amplitude dos debates e à discussão para a proposição do PL, o senador disse que vivencia um bom engajamento dos setores diretamente envolvidos nessa área.

Empresas ligadas aos Estados Unidos e à China devem liderar a criação da nova tecnologia. O Brasil e outros países em desenvolvimento deverão exercer papel secundário nesse processo de desenvolvimento, mas não serão imunes aos seus efeitos e formas de utilização.

O analista Marsiglia avalia que o debate sobre a Inteligência Artificial não foi feito de forma adequada com a sociedade e nem no Congresso Nacional. O especialista afirmou que muitas das preocupações legislativas são ainda pobres e captam aspectos secundários da utilização, como visíveis a direitos autorais, dados e deep fakes eleitorais. “Acredito não estamos com o debate amadurecido para uma solução legislativa eficaz”, afirmou.

PL prevê adaptação às mudanças nas tecnologias de Inteligência Artificial

Uma das principais preocupações dos líderes da Comissão foi a de fazer com que o PL possa responder de forma adequada aos principais riscos trazidos pela Inteligência Artificial tanto atualmente quanto no futuro. Com o desenvolvimento exponencial da tecnologia, é possível que os riscos atuais possam ser resolvidos de forma simples em um futuro próximo, mas outras questões se apresentarão.

Pontes citou que uma das principais questões é a utilização não ética das ferramentas. Isso não chega a ser um problema da tecnologia em si, mas de quem a utiliza. Dentre esses desvios éticos está, por exemplo, a discriminação de determinado grupo de pessoas, com base em parâmetros de treinamento e informações como quais sistemas são “alimentados”. Por exemplo, um programa de Inteligência Artificial que define a disponibilidade de crédito financeiro e que se utiliza de critérios como raça, gênero ou, até mesmo, que classifica as pessoas com base no histórico de sua família, por exemplo.

Isso já pode ser realidade em outros países. Há relatos não confirmados de que esse tipo de tecnologia estaria sendo usado na Rússia para recrutar para a guerra na Ucrânia cidadãos considerados menos úteis para a sociedade, como por exemplo pessoas com históricos de ficha criminal ou desemprego continuado. Isso viola princípios universais de igualdade e direitos humanos.

A privacidade de dados também é uma questão que deve ser observada para o desenvolvimento de sistemas de Inteligência Artificial. Por exemplo, para que um sistema de Inteligência Artificial faça análises do perfil financeiro de uma pessoa, ele pode cruzar informações de cartões de crédito, de compras em farmácia, entre outras. Longe de ser um problema futuro, a violação de direitos de privacidade já ocorreu em larga escala, como no caso da Cambridge Analytica e do Facebook, quando dados de milhões de pessoas foram comercializados e utilizados para a promoção de campanhas políticas em vários países.

Soluções de Inteligência Artificial podem colocar em risco a vida humana

Um ponto essencial é o risco de que sistemas de Inteligência Artificial possam ser uma ameaça à vida humana. Um exemplo desse tipo de aplicação, são os sistemas de armas, como mísseis, cuja “decisão” de acionamento pode ser feita pela própria Inteligência Artificial, sem a necessidade de intervenção humana. Da mesma forma, aplicações médicas cujo IA chegue à conclusão da existência de um quadro terminal e irreversível, podem levar à decisão de interrupção do tratamento da pessoa. Esse ponto foi debatido pela Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), mas ainda não ganhou atenção de políticos não envolvidos com o grupo.

Outro risco é o de que a Inteligência Artificial seja utilizada para controle social. Ou seja, para vigiar e manipular as pessoas, por meio de sistemas de geolocalização, de reconhecimento facial ou biométrico, de câmeras de vigilância cujas imagens e dados possam ser comprovados de forma isolada ou integrada. Isso pode comprometer a liberdade individual e coletiva, além de conferir poderes exacerbados às autoridades ou àqueles que detêm o controle dessas aplicações. Isto é, a implementação de uma espécie de Grande irmão nos espaços públicos.

Menos distópico, mas não menos preocupante, é a possibilidade, a cada dia mais factível, de que sistemas de Inteligência Artificial realizem funções na indústria e no mercado de serviços e, dessa forma, substituam milhões de trabalhadores.

O próprio Elon Musk, empresário dono da Tesla, da Starlink e do X (antigo Twitter), afirmou no dia 23 de maio, durante uma conferência em Paris, que a Inteligência Artificial suprimirá todos os empregos. Segundo ele, as pessoas que desejarem ainda poderão trabalhar como um passatempo, e que como demais precisarão receber uma “alta renda universal”, ainda que não tenha explicado exatamente o que ela seria.

Ainda que seja um entusiasta da Inteligência Artificial, no final do ano passado ele criou a empresa X.AI para desenvolver soluções nesse campo. Mas o bilionário já alertou sobre os riscos do desenvolvimento desenvolvido pela tecnologia. Em março de 2023, ele e outros especialistas do setor compartilharam uma carta aberta solicitando uma pausa de 6 meses no desenvolvimento de ferramentas de Inteligência Artificial, o que não ocorreu.

Regulamento pode trazer matriz para avaliação de riscos da Inteligência Artificial

Diante dos riscos já vislumbrados e da rápida evolução da Inteligência Artificial em todo o mundo, o senador Marcos Pontes avalia que não se pode prever quais serão os mais perigosos no caso do Brasil. Nesse sentido, ele destaca que a regulamentação brasileira deve ser “baseada em princípios, fomento e em uma matriz de risco que sirva de balizador para os desenvolvedores e o Governo Federal”.

Para tanto, o substitutivo proposto pelo senador não elenca cada um dos riscos previstos, mas traz uma tabela de classificação para que sejam avaliadas com base em parâmetros gerais de probabilidade e gravidade do impacto – uma espécie de matriz de riscos. De acordo com esta proposta, o desenvolvedor ou operador do sistema deverá realizar o design final do risco de seu sistema ou aplicação. Todo esse processo será monitorado e analisado pela autoridade responsável pela regulação do setor – nesse caso, a sugestão é que seja a Autoridade Nacional de Proteção de Dados.

Em outras palavras, a ideia é que as próprias empresas avaliam os riscos das tecnologias que estão desenvolvendo. Mas essa avaliação de riscos deixaria de ser totalmente baseada em percepções subjetivas e passaria a ser submetida a um sorteio de avaliação universal e baseado em critérios científicos.



GAZETA

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular