sábado, outubro 5, 2024
InícioECONOMIAEntenda em sete pontos como a Europa pretende regular a IA -...

Entenda em sete pontos como a Europa pretende regular a IA – 06/07/2024 – Tec


Uma nova Lei da União Europeia sobre IA (inteligência artificial), adotado em maio e que começa a ser aplicável em 2025, é a primeira a responsabilizar as empresas pelos efeitos de sistemas de IA de grande porte e uso geral.

Os críticos, no entanto, dizem que o bloco adota medidas precocemente, e que os reguladores só devem intervir se necessário.

Entenda em sete pontos a regulação da tecnologia n / D Europa.

Por que a regulação da IA ​​é necessária?

Reguladores em todo o mundo levantaram uma série de questões para se preocupar com o surgimento da inteligência artificial.

Eles devem intervir em algoritmos que podem invejar ou distorcer decisões que afetam a vida cotidiana de bilhões de pessoas? E quanto ao risco de que chatbots, como o Bate-papoGPT, pode potencializar a produção de desinformação ou levar ao uso indevido de grandes quantidades de dados pessoais? E o que eles deveriam fazer sobre os avisos de que os computadores poderiam em breve atingir um nível de inteligência tal que escapariam ao controle de seus criadores —com potenciais consequências graves para a humanidade?

A tecnologia está avançando tão rapidamente que ainda não houve um consenso sobre uma agenda regulatória, embora o foco em ambos os lados do Atlântico tenha se concentrado cada vez mais nos sistemas de IA mais poderosos e de uso geral.

Desenvolvido por empresas como OpenAIGoogle e Antrópico, são conhecidos como modelos fundamentais, esses sistemas estão por trás de uma ampla gama de aplicativos de diferentes empresas, impactando a sociedade e a economia.

Quais questões os reguladores estão analisando primeiro?

A União Europeia estava bem encaminhada para finalizar uma Lei sobre IA inovador que controlaria, ou até mesmo proibiria, usos de IA tidos como “de alto risco” —como tomar decisões em candidaturas de emprego, pedidos de empréstimos ou tratamentos de saúde. Então, o ChatGPT, chatbot de IA generativa da OpenAI disponível gratuitamente, virou febre.

Os legisladores rapidamente ajustaram seus planos, estabelecendo novas regras que forçarão as empresas a divulgar em que dados os modelos fundamentais, como os usados ​​no ChatGPT, foram treinados.

Os criadores dos modelos mais poderosos, sobre os quais Bruxelas afirmam que poderiam representar riscos sistêmicos, enfrentando requisitos adicionais, como a necessidade de avaliar e mitigar os riscos em seus modelos e relatar quaisquer incidentes graves.

A lei, adotada em maio e que começa a ser aplicável em 2025, também criou um AI Office poderoso encarregado de estabelecer os padrões que os sistemas de IA avançados devem atender.

No entanto, Patrick Van Eecke, codiretor da área de cibersegurança, dados e privacidade do escritório de advocacia Cooley, disse que Bruxelas agiu cedo demais ao tentar regular uma tecnologia que ainda é “um alvo em movimento”, refletindo uma tendência a regulações precipitadas. “Gostamos de regular a realidade antes mesmo de ela se tornar realidade”, disse, ecoando uma visão comum no meio de IA.

Muitos executivos de tecnologia dos EUA têm uma explicação diferente. Eles veem a pressa de Bruxelas em regular diretamente os sistemas de IA mais poderosos como uma medida protecionista deliberada da UE, impondo limitações a um grupo de empresas principalmente dos Estados Unidos que domina o setor.

A regulamentação será um modelo para o resto do mundo?

Isso é o que aconteceu com a legislação de proteção de dados do bloco, e é uma possível consequência que preocupa as empresas de tecnologia dos EUA.

Os defensores da Lei da UE dizem que ela será aplicada de forma flexível para refletir padrões em evolução e avanços tecnológicos. Mas os críticos dizem que a experiência mostra que Bruxelas adota uma abordagem mais dogmática — e que regras propostas agora poderiam limitar a evolução da evolução.

Acordo de algumas empresas europeias. Em uma carta à Comissão Europeia em 2023, 150 grandes empresas europeias alertaram que a lei poderia melhorar a economia do bloco para impedir que as empresas locais usassem livremente tecnologias importantes de IA.

Empresas de IA querem ser regulamentadas?

O setor de IA aprendeu com a ocorrência contra as redes sociais que não vale a pena evitar a regulação de tecnologias que podem ter um impacto social e político significativo.

Mas isso não significa que eles gostem do que está planejado pela UE. Sam AltmanCEO da OpenAI e um grande defensor da regulação da IA, disse ao FT que sua empresa pode ter que se retirar completamente da UE se as regras finais sobre IA forem muito rigorosas.

A polêmica que suas palavras provocaram o levaram rapidamente a recuar, mas, nos bastidores, as preocupações dos EUA permaneceram.

A disposição das grandes empresas de tecnologia em pedir regulação também gerou suspeitas de que elas veem isso como uma forma de consolidar sua posição no mercado de IA. Custos mais altos e burocracia poderiam dificultar a entrada de novos concorrentes.

Qual é a alternativa à abordagem da UE?

Antes de decidir sobre novas leis, muitos países estão analisando de perto como suas regulamentações existentes se aplicam a aplicativos alimentados por IA.

Nos EUA, por exemplo, a FTC (Federal Trade Commission) abriu uma investigação contra o ChatGPT a partir de competências já existentes.

Uma de suas preocupações é que o ChatGPT está coletando dados pessoais e às vezes os utilizando para gerar informações falsas e específicas sobre pessoas comuns. Os legisladores dos EUA também iniciaram um amplo escrutínio da IA ​​para elecenar os prós e contras da tecnologia.

O líder da maioria no Senado dos EUA, Chuck Schumer, solicitou uma série de relatórios e fóruns de especialistas para os comitês mais importantes para ajudar os senadores a decidir quais aspectos da IA ​​podem precisar de regulação.

Holly Fechner, codiretora do grupo de tecnologia do escritório de advocacia Covington & Burling, disse que o consenso no Congresso dos EUA em relação à competição com a China torna a abordagem de Schumer “uma mensagem vencedora —e sinalizando que os EUA estão seguindo em uma direção diferente da Europa”.

No entanto, assim como Bruxelas, Washington também deu início a requisitos importantes sobre os modelos mais poderosos.

Em uma ordem executiva executada no final de 2023, a Casa Branca sob Biden planejou que empresas que criam sistemas poderosos de uso duplo —ou seja, aquelas que também podem ter uso militar— divulgaram as capacidades de seus sistemas aos responsáveis, ao mesmo tempo em que promovemos formas de estabelecer padrões e diretrizes para como tais modelos são treinados, testados e monitorados.

Embora menos rigorosa que a nova lei da UE, a ordem executiva foi a primeira tentativa abrangente nos EUA de lidar com a IA.

A corrida pela IA será um perigoso campo de batalha sem regulação?

Muitas empresas de tecnologia dizem que o desenvolvimento da IA ​​deve refletir os primeiros dias da internet: os reguladores se abstiveram naquela época, permitindo que a inovação florescesse, e só intervieram mais tarde, conforme necessário.

Já existem sinais de que novos padrões do setor e acordos sobre as melhores práticas em IA estão começando a se firmar, mesmo sem regulamentação explícita.

Nos EUA, por exemplo, a indústria tem trabalho com o National Institute for Standards and Technology [Instituto Nacional de Padrões e Tecnologia] na revisão das melhores maneiras de projetar, treinar e implementar sistemas de IA.

A pedido da Casa Branca, um grupo de empresas líderes em IA assinou no ano passado um conjunto de compromissos voluntários.

No entanto, os críticos alertam que um fluxo de capital na indústria de IA e avaliações em alta para startups levaram ao desenvolvimento desenvolvido da tecnologia, independentemente dos riscos.

Em um dos sinais mais claros das tensões que isso criou dentro das empresas de tecnologia, Sam Altman, CEO da OpenAI, foi demitido pelo conselho da empresa em 2023 devido a preocupações com sua liderança, antes de um acordo entre os funcionários levá-lo a ser reintegrado cinco dias depois.

Outros que alertaram sobre os perigos de uma corrida desenfreada na IA —como Elon Musk— também pareceram ter deixado de lado suas preocupações e se juntado a ela.

A chance de uma IA destruir a humanidade não é motivo para regulá-la?

Ninguém na indústria de tecnologia acredita que os sistemas de IA atuais representam uma ameaça existencial para a humanidade, e não há acordo sobre quando —ou se— a tecnologia poderá atingir esse ponto.

Mas, no ano passado, uma carta aberta assinada por muitos especialistas pediu uma pausa de seis meses no desenvolvimento de sistemas mais avançados para permitir tempo para desenvolver novos protocolos de segurança.

Embora os governos tenham começado a considerar essa questão, seriam necessários novos acordos internacionais para tentar controlar a disseminação de uma perigosidade IA.

Mesmo assim, tais esforços podem ser impraticáveis, dada a ampla disponibilidade dos recursos computacionais e conjuntos de dados necessários para treinar sistemas de IA.

Por enquanto, as mesmas empresas que estão liderando o desenvolvimento de IAs afirmam também estar na vanguarda de tentar contê-la.

A OpenAI disse em 2023 que estava criando uma equipe interna para começar a pesquisar maneiras de controlar computadores ‘superinteligentes’, que ela acredita que poderiam surgir nesta década.

Mas, menos de um ano depois, a equipe foi desfeita —e uma das pessoas que a liderou acusou a empresa de estar mais interessada em construir “produtos duráveis” fazer que em criar uma cultura real em torno da segurança da IA.



FOLHA DE SÃO PAULO

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular