domingo, outubro 6, 2024
InícioMUNDOGrã-Bretanha explora as primeiras regras formais para IA: o que vem depois?

Grã-Bretanha explora as primeiras regras formais para IA: o que vem depois?


Um usuário da Internet verifica o ChatGPT em seu celular, Suqian, província de Jiangsu, China, 26 de abril de 2023.

Publicação futura | Publicação futura | Getty Images

LONDRES — A Grã-Bretanha está prestes a apresentar sua primeira lei para inteligência artificial — mas o novo governo trabalhista do primeiro-ministro Keir Starmer enfrenta um delicado equilíbrio entre formular regras que sejam rigorosas o suficiente e, ao mesmo tempo, permitam a inovação.

Em um discurso proferido pelo Rei Carlos III em nome da administração de Starmer, o governo disse na quarta-feira que “buscaria estabelecer a legislação apropriada para impor requisitos àqueles que trabalham para desenvolver os modelos de inteligência artificial mais poderosos”.

Mas o discurso se absteve de mencionar um projeto de lei de IA, o que muitos executivos e comentaristas da indústria de tecnologia esperavam.

Na União Europeia, as autoridades introduziram uma lei abrangente conhecida como Lei da IA, que sujeita as empresas que desenvolvem e usam inteligência artificial a restrições muito mais rígidas.

Muitas empresas de tecnologia — grandes e pequenas — estão esperançosas de que o Reino Unido não siga o mesmo caminho ao aplicar regras que elas consideram muito pesadas.

Como poderia ser um projeto de lei sobre IA no Reino Unido

Espera-se que o Partido Trabalhista ainda introduza regras formais para IA, conforme o partido estabeleceu em seu manifesto eleitoral.

Europa está em melhor posição em IA agora — mas ainda atrás dos EUA e da China, diz JPMorgan

A legislação sobre IA marcaria um contraste com o antecessor de Starmer. Sob o ex-PM Rishi Sunak, o governo optou por uma abordagem leve à IA, buscando, em vez disso, aplicar regras existentes à tecnologia.

O governo conservador anterior disse em um documento de política de fevereiro que introduzir medidas vinculativas muito cedo poderia “não abordar riscos de forma eficaz, tornar-se rapidamente desatualizada ou sufocar a inovação”.

Em fevereiro, o novo ministro de tecnologia do Reino Unido, Peter Kyle, disse que o Partido Trabalhista tornaria obrigatório, por lei, que as empresas compartilhassem dados de testes sobre a segurança de seus modelos de IA com o governo.

“Nós obrigaríamos por lei que os resultados dos dados dos testes fossem divulgados ao governo”, disse Kyle, então ministro das Finanças, em uma entrevista à BBC na época.

O governo de Sunak havia garantido acordos de empresas de tecnologia para compartilhar informações de testes de segurança com o AI Safety Institute, um órgão apoiado pelo estado que testa sistemas avançados de IA. Mas isso foi feito apenas de forma voluntária.

O risco de anular a inovação

O governo do Reino Unido quer evitar pressionar muito com as regras de IA a ponto de acabar dificultando a inovação. O Partido Trabalhista também sinalizou em seu manifesto que quer “apoiar diversos modelos de negócios que tragam inovação e novos produtos ao mercado”.

Qualquer regulamentação precisaria ser “matizada”, atribuindo responsabilidades “conforme necessário”, disse Zahra Bahrololoumi, CEO da Salesforce no Reino Unido e Irlanda, à CNBC, acrescentando que acolhe com satisfação o apelo do governo por “legislação apropriada”.

Matthew Houlihan, diretor sênior de assuntos governamentais da Cisco, disse que quaisquer regras de IA precisariam ser “centradas em uma abordagem ponderada e baseada em riscos”.

Outras propostas que já foram apresentadas por políticos do Reino Unido oferecem algumas dicas sobre o que pode ser incluído no Projeto de Lei de IA do Partido Trabalhista.

O legislador britânico Chris Holmes, um parlamentar conservador que está na câmara alta do parlamento, apresentou no ano passado um projeto de lei propondo regulamentar a IA. O projeto passou pela terceira leitura em maio, passando para a câmara baixa do Parlamento.

A lei de Holmes teria menos chance de sucesso do que uma proposta pelo governo. No entanto, ela oferece algumas ideias de como o Partido Trabalhista poderia procurar formar sua própria legislação de IA.

O projeto de lei proposto por Holmes inclui a sugestão de criação de uma autoridade centralizada de IA, que supervisionaria a aplicação de regras para a tecnologia.

O novo comitê de segurança e proteção da OpenAI é importante, dado o ritmo da inovação: empresa de dados e IA

As empresas teriam que fornecer à Autoridade de IA dados de terceiros e propriedade intelectual usados ​​no treinamento de seus modelos e garantir que tais dados e propriedade intelectual sejam usados ​​com o consentimento da fonte original.

Isso ecoa, de certa forma, o Escritório de IA da UE, que é responsável por supervisionar o desenvolvimento de modelos avançados de IA.

Outra proposta de Holmes é que as empresas nomeiem executivos individuais de IA, que teriam a tarefa de garantir usos seguros, éticos e imparciais da IA ​​pelas empresas, além de garantir que os dados usados ​​em qualquer tecnologia de IA sejam imparciais.

Como ele pode ser comparado a outros reguladores

Com base no que o Partido Trabalhista prometeu até agora, qualquer lei desse tipo estará inevitavelmente “muito longe do amplo escopo da Lei de IA da UE”, disse Matthew Holman, sócio do escritório de advocacia Cripps, à CNBC.

Holman acrescentou que, em vez de exigir divulgações autoritárias dos fabricantes de modelos de IA, o Reino Unido tem mais probabilidade de encontrar um “meio-termo”. Por exemplo, o governo poderia exigir que as empresas de IA compartilhassem o que estão trabalhando com sessões a portas fechadas do AI Safety Institute, mas sem revelar segredos comerciais ou código-fonte.

O ministro da Tecnologia, Kyle, disse anteriormente na London Tech Week que o Partido Trabalhista não aprovaria uma lei tão rigorosa quanto a Lei de IA porque não quer dificultar a inovação ou impedir investimentos de grandes desenvolvedores de IA.

Mesmo assim, uma lei de IA do Reino Unido seria um passo acima dos EUA, que atualmente não têm legislação federal de IA de nenhum tipo. Na China, enquanto isso, a regulamentação é mais rigorosa do que a UE e qualquer legislação que o Reino Unido provavelmente apresentará.

No ano passado, os reguladores chineses finalizaram as regras que regem a IA generativa com o objetivo de eliminar conteúdo ilegal e aumentar as proteções de segurança.

Liu, da Sirion, disse que uma coisa que ele espera que o governo não faça é restringir os modelos de IA de código aberto. “É essencial que as novas regulamentações de IA do Reino Unido não sufoquem o código aberto ou caiam na armadilha da captura regulatória”, disse ele à CNBC.

“Há uma diferença enorme entre o dano criado por um grande LLM de empresas como a OpenAI e modelos de código aberto específicos e personalizados usados ​​por uma startup para resolver um problema específico.”

Herman Narula, CEO da construtora de empreendimentos de metaverso Improbable, concordou que restringir a inovação de IA de código aberto seria uma má ideia. “Uma nova ação governamental é necessária, mas essa ação deve se concentrar em criar um mundo viável para empresas de IA de código aberto, que são necessárias para evitar monopólios”, disse Narula à CNBC.



CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular