quarta-feira, outubro 9, 2024
InícioECONOMIAIA: Autor da lei europeia diz que o Brasil não deve copiá-la...

IA: Autor da lei europeia diz que o Brasil não deve copiá-la – 06/08/2024 – Painel SA


Ex-servidor na Corte de Justiça e no Parlamento Europeu, o italiano Gabriele Mazzini é o coordenador da Comissão Europeia que editou a Lei de Inteligência Artificial confirmei recentemente pela União Europeia. Na semana passada, Mazzini participou de um debate em Brasília (DF) promovido pelo ITS Brasil e pela Abranet (Associação Brasileira de Internet). Ele nunca tinha vindo ao Brasil, onde disse ter vivido uma de suas experiências mais marcantes: um almoço na churrascaria.

O Brasil deveria copiar a Lei de Inteligência Artificial da Europa?
Dependência. Posso imaginar que em países como o Brasil há muitas pessoas que precisam de crédito e elas lutam para ter acesso aos canais tradicionais. Será que a IA e os dados disponíveis dessas pessoas permitirão o acesso ao crédito a quem não tem histórico de crédito [e menos renda]? Então, se você pensa em sistemas tradicionais, talvez nosso modelo não funcione no Brasil. É importante avaliar se uma determinada abordagem regulatória faz sentido no contexto de cada país.

Leis como foi aprovado na Europa nos proteger do poder excessivo da inteligência artificial?
Ó poder da tecnologia A limitação pode ser resolvida por um único regulamento. Na Europa, quando pensamos em lidar com a concentração de poder, temos, por um lado, a lei da concorrência, e, de outro, regulamentações em torno das plataformas [propriamente ditas]como a Lei de Serviços Digitais e Lei dos Mercados Digitais, que regula o acesso a certas atividades ou serviços essenciais.

A lei de inteligência artificial foi criada com o propósito de coibir o poder das tecnologias?
A lei concentra-se em garantir que os sistemas de inteligência artificial na Europa, independentemente de quem o faça, sejam grandes ou pequenas corporações, sejam de confiança, respeitem a saúde, a segurança e os direitos fundamentais das pessoas. A lei não distingue o ator.

Mas, ao final, há um conjunto de funcionalidades oferecidas por certas plataformas, como o ChatGPT.
A legislação foi alargada para regular também modelos de uso geral, como aqueles por trás do ChatGPT. No entanto, seja de uso geral ou não, todos os modelos estão sujeitos a certas regras. A preocupação foi manter o mercado aberto. Se esses modelos estão vinculados à utilização de uma determinada quantidade de computação, o que significa que apenas alguns players conseguirão utilizá-la, então estarão sujeitos a regras adicionais.

Quais são os maiores riscos de inteligência artificial?
Estamos realmente focados em garantir que a IA seja integrada em produtos ou processos existentes para ajudar os humanos na tomada de decisões. Queríamos ter certeza de que a IA se comportaria corretamente, sem prejudicar a saúde ou a segurança das pessoas, e não causaria danos. Esse é o risco sobre o que nos concentramos. Penso no impacto da IA, por exemplo, na nossa força de trabalho ou na nossa capacidade de, como humanos, garantir a palavra final sobre as coisas.

O senhor está dizendo que a preocupação foi garantir que a IA não substitua habilidades humanas?
Quanto mais delegarmos à IA, mais perderemos certas habilidades. Penso que, quanto mais a IA se torna avançada, mais nos estimula a substituir certas atividades de forma mais eficiente. Isso significa que podemos perder certas capacidades cognitivas. Não acho que isso seja um risco agora. Mas continuaremos a desenvolver a IA e a descuidadamente em nossa sociedade, talvez [seja um risco].

Deixar que o Google funcione como nossa memória, por exemplo?
Exatamente. Hoje, a gente não faz mais cálculos de cabeça. A IA está movendo essa fronteira mais rápido. Então, acho importante usá-lo sem permitir que não sejamos mais capazes de fazer coisas que a IA está fazendo por nós.

Se as máquinas não funcionarem no futuro, estaríamos perdendo nossa capacidade de cálculo?
Engenheiros fizeram cálculos manuais sobre as forças nos edifícios, nas grandes infraestruturas. Esses cálculos são complexos. Em algum momento, um software foi usado para isso. Mas, ao final, é preciso ser um bom engenheiro para entender os cálculos [da IA] estão corretos. Quanto mais delegarmos à IA, mais poderemos entrar na lacuna cognitiva.

Existe o risco de uma inteligência artificial nos levar a perder a noção do que é real e do que é simulado?
Fica claro que a IA tem a capacidade de realmente retratar coisas reais que não são. As ferramentas de deepfake estão se tornando mais simples de usar. E vejo que isso cria um problema para a democracia. Você pode ter deepfakes, mas precisamos criar ferramentas que permitam às pessoas identificar se algo é verdadeiro ou não. É por isso que, na lei de IA, estabelecemos a obrigação de rotular conteúdos sintéticos quando existe risco de engano.

Essa obrigação vale só para quem produz o conteúdo?
Fomos ainda mais longe no sentido de estabelecer obrigações para as empresas que desenvolvem modelos generativos [de produção de conteúdos, sejam textos, fotos ou vídeos] de inserir certificados que permitam identificar [nas conversas entre máquinas, por exemplo] se o conteúdo é falso ou não. Toda imagem gerada por um determinado sistema seria rotulada pelo próprio sistema com uma espécie de marca d´água, que cria algumas camadas identificáveis [entre máquinas].
No entanto, essa tecnologia ainda não está muito avançada. Então, acho que vai demorar até que, pela educação, as pessoas se acostumem com a possibilidade de que as coisas não sejam reais. E elas terão de exercer um julgamento mais crítico.

A própria tecnologia fiscalizaria o cumprimento da lei?
Exatamente. As empresas realmente estão investindo muito [nessa tecnologia] isso.

Se uma tecnologia não for madura, não pode causar danos?
Houve esse debate na União Europeia. Nos EUA, por exemplo, os professores obtiveram um algoritmo para detectar se os alunos estavam usando IA generativa em suas tarefas. Como essas ferramentas de detecção não são muito boas, alguns estudantes foram acusados ​​de usar IA quando, na verdade, não tinham usado. Ainda estamos discutindo esses impactos.

Até que ponto a regulação na Europa entrou em conflito com os interesses empresariais dos desenvolvedores de tecnologia?
Não queremos regulamentos específicos intervenientes de forma mais rigorosa do que outros. Isso porque você pode ter grandes atores capazes de obedecer às regras e pequenos menos capazes. Portanto, você poderia dar aos grandes uma vantagem.

Por que Alemanha, França e Itália resistiram tanto às regras aprovadas?
A lei de IA se concentra nos produtos finais: um sistema de recomendação para bancos, um algoritmo para decidir quem contratar, como demitir pessoas. Essa é uma área que está emergindo porque temos grandes players nos EUA, na China e também na Europa. Não posso dizer se a posição deles era suas empresas. Acho que os três países defendem que a regulamentação será demasiadamente a tecnologia, deixando outras questões, o código de conduta, abrangentes, para serem discutidas no G7, em nível global.

Com a IA, as techs podem se tornar mais poderosas do que os próprios países?
Se as empresas são boas no desenvolvimento de produtos, na prestação de serviços, devem ser livres para operar. Sou a favor da competição e do mercado livre. O problema é quando você consolida esse poder e exclui outros concorrentes. Penso que este é o campo onde entra o direito da concorrência. É claro que, às vezes, leva tempo para que certas decisões sejam tomadas [nesse campo]. E é por isso que, na UE, decidimos complementar o direito da concorrência com a Lei dos Mercados Digitais, que garante o mercado para esses serviços essenciais, abertos para novos participantes.

Mas a minha questão é mais política. No Brasil e em outros países, surgem críticas de que algumas big techs, como o X, não querem se submeter às leis locais e, por isso, desafiam a autoridade e até a soberania dos países. Como resolver isso avançando para a IA?
Na Europa, para o problema das notícias falsas, lidamos via lei de IA e Lei dos Serviços Digitais. Mas, a partir de alguns anos, as pessoas também estarão acostumadas a verificar se um conteúdo é verdadeiro ou não. Eles precisam ser educados sobre como verificar o conteúdo em diferentes fontes. Contamos com um certo grau de alfabetização e educação [e isso ajuda], embora não ache que nosso nível de alfabetização seja excepcional. Mas é verdade que os países com maior grau de desigualdade podem encontrar dificuldades diante da capacidade das pessoas se atualizarem.

A IA acentuará mais a diferença entre nações ricas e pobres?
Trabalhei em um projeto na África, que possibilitou a disseminação de informações sobre cuidados básicos com recém-nascidos e com mães grávidas por meio de agentes comunitários de saúde que utilizaram uma solução de e-saúde em áreas sem acesso a médicos.
Ou pensamos que todos devem ter acesso aos mesmos cuidados em todos os lugares do mundo ou regularmos que talvez seja melhor ter algum grau de cuidado em vez de cuidado zero. Acho que a IA entra aí. Ela pode ser útil. Certamente, temos grandes expectativas em relação à IA no norte global. Mas penso que ela continua a ser uma ferramenta que, se utilizada corretamente, ajudará a resolver lacunas em áreas com recursos limitados.


Raio-X | Gabriele Mazzini

Advogado, possui LLM pela Harvard Law School e doutorado em Direito Penal Italiano e Comparado pela Universidade de Pavia (Itália). Coordenador da Comissão Europeia que editou a Lei de Inteligência Artificial, desde 2017. Antes disso, foi Conselheiro Geral Associado do Millennium VIllages Project, uma iniciativa do economista Jeffrey Sachs, da Universidade de Columbia (EUA), em países de África. Atua ainda como associado do MIT.

Com Diego Félix



FOLHA DE SÃO PAULO

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular