sábado, outubro 5, 2024
InícioECONOMIAScarlett Johansson está certa sobre transparência de IAs - 23/05/2024 - Tec

Scarlett Johansson está certa sobre transparência de IAs – 23/05/2024 – Tec


No filme “Ela”, um escritor solitário chamado Theodore Twombley se apaixona pela voz incorporada de Samanthauma assistente virtual interpretada pela atriz Scarlett Johansson.

“Não posso acreditar que estou tendo essa conversa com meu computador”, diz Twombley para Samantha. “Você não está. Você está tendo essa conversa comigo”, diz Samantha.

A genialidade do roteiro de Spike Jonze está em sua exploração das fronteiras entre o artificial e o real. Mas, hoje, o filme de ficção científica de 2013 obteve uma ressonância irônica depois que a OpenAI lançou seu mais recente chatbot de inteligência artificial (IA) multimodal GPT-4oaparentemente imitando a voz de Johansson.

Johansson disse que aceitou os pedidos da OpenAI para usar sua vozacrescentando que ficou “chocada e irritada” ao descobrir que a empresa havia implantado uma voz “assustadoramente semelhante” à sua.

Ela pediu maior transparência e uma legislação cumprida para garantir que os direitos dos indivíduos fossem protegidos. A OpenAI interrompeu o uso da voz, que mais tarde explicou pertencer a outra pessoa não identificada.

O incidente pode ter parecido um capricho de uma celebridade para os representantes que participaram da Cúpula de Segurança de IA em Seul nesta semana. Mas a disputa ecoa três preocupações mais gerais sobre a IA generativa: o roubo de identidade, a corrosão da propriedade intelectual e a erosão da confiança.

As empresas de IA conseguem implementar essa tecnologia de forma responsável? Aflitivamente, até mesmo alguns dos responsáveis ​​pela segurança estão fazendo essa pergunta.

Na semana passada, Jan Leike renunciou ao cargo de chefe de uma equipe de segurança na OpenAI após a saída de Ilya Sutskever, um dos cofundadores e cientista-chefe da empresa.

No X, Leike afirmou que a segurança havia sido deixada de lado na empresa em prol de “produtos reluzentes”. Ele argumentou que a OpenAI deveria dedicar muito mais recursos à segurança, confidencialidade, alinhamento humano e impacto social.

“Esses problemas são bastante difíceis de resolver, e estou preocupado que não estejamos em uma trajetória para resolvê-los”, escreveu.

Em suas declarações próprias após deixar a empresa, Sutskever disse estar confiante de que a OpenAI construirá uma IA que será “tanto segura quanto benéfica”.

No entanto, Sutskever foi um dos membros do conselho da empresa que no ano passado pretendia destituir o CEO Sam Altman.

Depois que Altman foi reintegrado após um levante de funcionários, Sutskever disse que lamentou sua participação no golpe. Mas sua própria saída removerá mais um contrapeso para Altman.

Não é apenas a OpenAI que tem enfrentado dificuldades na implementação da tecnologia de IA. O Google teve seus próprios problemas com a IA generativa quando seu chatbot Gemini gerou imagens anacrônicas de soldados nazistas negros e asiáticos.

Ambas as empresas afirmam que os erros são inevitáveis ​​ao lançar novas tecnologias e responder rapidamente aos seus erros.

Ainda assim, transmitira maior confiança se as principais empresas de IA fossem mais transparentes. Eles têm um longo caminho a percorrer, como mostrado pelo Índice de transparência do modelo básicopublicado esta semana pela Universidade de Stanford.

O índice, que analisa dez principais desenvolvedores de modelos em cem indicadores, incluindo acesso aos dados, confiabilidade do modelo, políticas de uso e efeitos em cascata, destaca como as grandes empresas tomaram medidas para melhorar a transparência nos últimos seis meses, embra alguns modelos permanecem “extremamente opacos”.

“O que esses modelos permitem e proíbem definirá nossa cultura. É importante examiná-los”, disse Percy Liang, diretor do Centro de Pesquisa em Modelos de Fundação de Stanford.

O que mais preocupa é a concentração de poder corporativo. “O que acontece quando algumas organizações controlam o conteúdo e o comportamento dos futuros sistemas de IA?”

Essas preocupações podem exigir exigências alimentares por mais intervenção regulatória, como a Lei da IA ​​da UE, que recebeu aprovação do Conselho Europeu.

Mais de um quarto das legislaturas estaduais dos EUA também estão considerando projetos de lei para regular a IA. Mas algumas no setor temem que a regulamentação possa apenas fortalecer o domínio das grandes empresas de IA.

“As vozes na sala são as das big techs. Elas podem consolidar seu poder por meio da regulamentação”, disse Martin Casado, sócio de investimentos na empresa de capital de risco Andreessen Horowitz.

Os legisladores precisam prestar muito mais atenção aos “pequenos techs”, como bolsas de startups que utilizam modelos de IA de código aberto para competir contra os grandes players.

Dez países e a UE na cúpula de Seul concordaram esta semana em estabelecer uma rede internacional de institutos de segurança para monitorar o desempenho de modelos de IA de fronteira, o que é bem-vindo.

Mas eles devem agora ouvir Johansson e investigar muito mais profundamente as estruturas corporativas poderosas que implementam esses modelos.



FOLHA DE SÃO PAULO

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular