sexta-feira, março 14, 2025
InícioECONOMIAInvasão da OpenAI em 2023 aumentou recebimento sobre China - 06/07/2024 -...

Invasão da OpenAI em 2023 aumentou recebimento sobre China – 06/07/2024 – Tec


No início do ano passado, um hacker obteve acesso aos sistemas de mensagens internas da IA abertacriadora do Bate-papoGPTe roubou detalhes sobre o design das tecnologias de inteligência artificial da empresa.

O hacker extraiu detalhes de discussões em um fórum online onde os funcionários conversavam sobre as tecnologias mais recentes da OpenAI, de acordo com duas pessoas familiarizadas com o incidente. Não acessou, contudo, os sistemas onde a empresa armazena e constrói sua IA.

Executivos da OpenAI divulgam incidente aos funcionários durante uma reunião geral nos escritórios da empresa em São Francisconos Estados Unidosem abril de 2023, e informaram o conselho de administração, de acordo com os interlocutores, que discutiram informações confidenciais sobre a empresa sob condição de anonimato.

Os executivos não compartilharam a notícia porque nenhuma informação sobre clientes ou parceiros foi roubada, segundo duas pessoas por parte do assunto.

Os executivos não consideraram o incidente uma ameaça à segurança nacional porque acreditavam que o hacker era uma pessoa física sem vínculos com um governo estrangeiro. A empresa não informou o FBI nem qualquer outra autoridade policial.

Para alguns funcionários da OpenAI, a notícia aumentou o medo de adversários estrangeiros, como a China, desviar roubar tecnologia de IA que, embora atualmente seja principalmente uma ferramenta de trabalho e pesquisa, poderia acabar ameaçando a segurança nacional dos EUA.

Isso também levantou questões sobre se a OpenAI estava tratando a segurança de forma sigilosa e expôs divisões dentro da empresa sobre os riscos da IA.

Após a violação, Leopold Aschenbrenner, gerente de projetos da OpenAI focado em garantir que futuras tecnologias de IA não causem danos graves, enviou um memorando ao conselho de administração da OpenAI argumentando que a empresa não estava fazendo o suficiente para impedir que o governo chinês e outros adversários estrangeiros roubassem seus segredos.

Aschenbrenner disse que a OpenAI o demitiu há alguns meses para vazar outras informações fora da empresa e argumentou que sua demissão teve razões políticas. Ele fez alusão à falha em um podcast recente, mas detalhes do incidente não foram relatados anteriormente.

Ele disse que a segurança da OpenAI não é forte o suficiente para proteger contra o roubo de segredos importantes se atores estrangeiros conseguissem se infiltrar na empresa.

“Agradecemos as preocupações que Leopold levantou enquanto estava na OpenAI, e isso não levou ao seu desligamento”, disse Liz Bourgeois, porta-voz da OpenAI.

Referindo-se aos esforços da empresa para construir uma inteligência artificial geral (AGI, na sigla em inglês), uma máquina que consegue fazer tudo o que o cérebro humano consegue fazer, ela acrescentou: “Embora declaremos seu compromisso em construir uma AGI segura, discordamos de muitas das alegações que ele fez desde então sobre nosso trabalho. Isso inclui suas caracterizações de nossa segurança, especialmente esse incidente, que compartilhamos com nosso conselho antes de ele se juntar à empresa.”

Não é irracional temer que uma invasão de uma empresa de tecnologia dos EUA podem ter vínculos com a China. No mês passado, Brad Smith, presidente da Microsoft, depôs no Capitólio sobre como hackers chineses usaram os sistemas da gigante da tecnologia para lançar um amplo ataque às redes do governo federal.

No entanto, segundo a lei federal e da Califórniaa OpenAI não pode impedir que pessoas trabalhem na empresa por sua nacionalidade, e pesquisadores disseram que barrar talentos estrangeiros de projetos nos EUA poderiam impedir significativamente o progresso da IA ​​nos Estados Unidos.

“Precisamos das mentes mais prodigiosas trabalhando nessa tecnologia”, disse Matt Knight, chefe de segurança da OpenAI, ao New York Times. “Isso vem com alguns riscos, e precisamos resolvê-los.”

A OpenAI não é a única empresa a construir sistemas de IA cada vez mais poderosos. Algumas delas —principalmente a Meta, dona do Facebook e Instagram— estão compartilhando seus projetos com o resto do mundo usando diretrizes de software de código aberto (open source).

Elas acreditam que os perigos apresentados pelas tecnologias de IA de hoje são pequenos e que compartilhar o código permite que engenheiros e pesquisadores de todo o setor identifiquem e resolvam problemas.

Os sistemas de IA de hoje, capazes de criar textos, imagens e vídeos, podem ajudar a espalhar desinformação na internet. Eles também estão começando a substituir alguns empregos.

Empresas como a OpenAI e seus concorrentes Anthropic e Google adicionam proteções às suas aplicações de IA antes de oferecê-las a pessoas físicas e empresas, esperando evitar que as pessoas utilizem os aplicativos para espalhar desinformação ou causar outros problemas.

Também não há muitas evidências de que as tecnologias de IA de hoje representam um risco significativo para a segurança nacional.

Estudos realizados pela OpenAI, Anthropic e outros no ano passado demonstraram que a IA não é significativamente mais perigosa do que os motores de busca. Daniela Amodei, cofundadora da Anthropic e presidente da empresa, disse que sua tecnologia de IA mais recente não representaria um grande risco se seus projetos fossem roubados ou compartilhados com outros.

“Se pertencesse a outra pessoa, isso poderia ser extremamente prejudicial para a sociedade? Nossa resposta é: ‘Não, provavelmente não'”, disse ela ao Times no mês passado. “Poderia acelerar algo para um ator mal-intencionado no futuro? Talvez. É especulativo.”

Ainda assim, pesquisadores e executivos de tecnologia há muito tempo se preocupam que a IA possa um dia alimentar a criação de novas armas biológicas ou ajudar a invadir sistemas de computadores governamentais. Alguns até acreditam que poderiam destruir a humanidade.



FOLHA DE SÃO PAULO

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular