sábado, outubro 5, 2024
InícioTECNOLOGIAOpenAI e Anthropic concordam em deixar o US AI Safety Institute testar...

OpenAI e Anthropic concordam em deixar o US AI Safety Institute testar modelos


Jakub Porzycki | Nurphoto | Getty Images

A OpenAI e a Anthropic, as duas startups de inteligência artificial mais valorizadas, concordaram em deixar o Instituto de Segurança de IA dos EUA testar seus novos modelos antes de lançá-los ao público, após crescentes preocupações no setor sobre segurança e ética em IA.

O instituto, sediado no Departamento de Comércio do Instituto Nacional de Padrões e Tecnologia (NIST), disse em um comunicado: Comunicado de imprensa que terá “acesso aos principais novos modelos de cada empresa antes e depois de seu lançamento público”.

O grupo foi criado depois que o governo Biden-Harris emitiu a primeira ordem executiva do governo dos EUA sobre inteligência artificial em outubro de 2023, exigindo novas avaliações de segurança, orientação sobre equidade e direitos civis e pesquisas sobre o impacto da IA ​​no mercado de trabalho.

“Estamos felizes por termos chegado a um acordo com o Instituto de Segurança de IA dos EUA para testes de pré-lançamento de nossos futuros modelos”, escreveu o CEO da OpenAI, Sam Altman, em um publicar no X. A OpenAI também confirmou à CNBC na quinta-feira que, no ano passado, a empresa dobrou seu número de usuários ativos semanais para 200 milhões. Axios foi o primeiro a relatar o número.

A notícia chega um dia após relatos de que a OpenAI está em negociações para levantar uma rodada de financiamento avaliando a empresa em mais de US$ 100 bilhões. A Thrive Capital está liderando a rodada e investirá US$ 1 bilhão, de acordo com uma fonte com conhecimento do assunto que pediu para não ser identificada porque os detalhes são confidenciais.

A Anthropic, fundada por ex-executivos e funcionários de pesquisa da OpenAI, foi avaliada mais recentemente em US$ 18,4 bilhões. A Anthropic conta Amazon como um investidor líder, enquanto a OpenAI é fortemente apoiada por Microsoft.

Os acordos entre o governo, a OpenAI e a Anthropic “permitirão a pesquisa colaborativa sobre como avaliar capacidades e riscos de segurança, bem como métodos para mitigar esses riscos”, de acordo com o relatório de quinta-feira. liberar.

Jason Kwon, diretor de estratégia da OpenAI, disse à CNBC em uma declaração: “Apoiamos fortemente a missão do US AI Safety Institute e estamos ansiosos para trabalhar juntos para informar as melhores práticas e padrões de segurança para modelos de IA”.

Jack Clark, cofundador da Anthropic, disse que a “colaboração da empresa com o US AI Safety Institute aproveita sua ampla experiência para testar rigorosamente nossos modelos antes da implantação generalizada” e “fortalece nossa capacidade de identificar e mitigar riscos, promovendo o desenvolvimento responsável de IA”.

Vários desenvolvedores e pesquisadores de IA expressaram preocupações sobre segurança e ética na indústria de IA cada vez mais lucrativa. Funcionários atuais e antigos da OpenAI publicaram uma carta aberta em 4 de junho, descrevendo problemas potenciais com os rápidos avanços que estão ocorrendo na IA e uma falta de supervisão e proteção a denunciantes.

“As empresas de IA têm fortes incentivos financeiros para evitar supervisão efetiva, e não acreditamos que estruturas personalizadas de governança corporativa sejam suficientes para mudar isso”, escreveram. As empresas de IA, acrescentaram, “atualmente têm apenas obrigações fracas de compartilhar algumas dessas informações com governos, e nenhuma com a sociedade civil”, e não se pode “confiar que elas as compartilhem voluntariamente”.

Dias após a publicação da carta, uma fonte familiarizada com o assunto confirmou à CNBC que a FTC e o Departamento de Justiça estavam prontos para abrir investigações antitruste sobre a OpenAI, Microsoft e Nvidia. A presidente da FTC, Lina Khan, descreveu a ação de sua agência como uma “investigação de mercado sobre os investimentos e parcerias que estão sendo formados entre desenvolvedores de IA e grandes provedores de serviços de nuvem”.

Na quarta-feira, os legisladores da Califórnia passou um projeto de lei de segurança de IA de botão quente, enviando-o para a mesa do governador Gavin Newsom. Newsom, um democrata, decidirá vetar a legislação ou sancioná-la até 30 de setembro. O projeto de lei, que tornaria os testes de segurança e outras salvaguardas obrigatórios para modelos de IA de um certo custo ou poder de computação, foi contestado por algumas empresas de tecnologia por seu potencial de desacelerar a inovação.

ASSISTIR: Google, OpenAI e outros se opõem ao projeto de lei de segurança de IA da Califórnia

Google, OpenAI e outros se opõem ao projeto de lei de segurança de IA da Califórnia



CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular