sábado, outubro 5, 2024
InícioTECNOLOGIAO Google ‘nem sempre encontrará erros’ em IA, diz o vice-presidente de...

O Google ‘nem sempre encontrará erros’ em IA, diz o vice-presidente de pesquisa Reid à equipe


Liz Reid, vice-presidente de pesquisa do Google, fala durante um evento em Nova Delhi em 19 de dezembro de 2022.

Sajjad Hussain | AFP | Imagens Getty

do Google O novo chefe de pesquisa disse em uma reunião geral na semana passada que erros ocorrerão à medida que a inteligência artificial se tornar mais integrada na pesquisa na Internet, mas que a empresa deveria continuar lançando produtos e permitir que funcionários e usuários ajudem a encontrar os problemas.

“É importante não reter recursos só porque pode haver problemas ocasionais, mas à medida que encontramos os problemas, nós os resolvemos”, disse Liz Reid, que foi promovido ao cargo de vice-presidente de buscas em março, disse na reunião de toda a empresa, segundo áudio obtido pela CNBC.

“Não acho que devamos tirar disso que não devemos correr riscos”, disse Reid. “Devemos abordá-los com atenção. Devemos agir com urgência. Quando encontramos novos problemas, devemos fazer testes extensivos, mas nem sempre encontraremos tudo e isso significa apenas que responderemos.”

Os comentários de Reid chegam em um momento crítico para o Google, que está lutando para acompanhar o ritmo da OpenAI e Microsoft em IA generativa. O mercado de chatbots e ferramentas de IA relacionadas explodiu desde que a OpenAI introduziu o ChatGPT no final de 2022, oferecendo aos consumidores uma nova forma de procurar informações online fora da pesquisa tradicional.

A pressa do Google em lançar novos produtos e recursos gerou uma série de constrangimentos. No mês passado, a empresa lançou o AI Overview, que o CEO Sundar Pichai chamou de a maior mudança na pesquisa em 25 anos, para um público limitado, permitindo aos usuários ver um resumo das respostas às consultas no topo da pesquisa do Google. A empresa planeja lançar o recurso em todo o mundo.

Embora o Google estivesse trabalhando na visão geral da IA ​​​​há mais de um ano, os usuários rapidamente perceberam que as consultas retornavam respostas absurdas ou imprecisas e não tinham como cancelar. Os resultados amplamente divulgados incluíram a falsa declaração de que Barack Obama foi o primeiro presidente muçulmano da América, uma sugestão para os usuários tentarem colocar cola na pizza e uma recomendação para tentar comendo em pelo menos uma pedra por dia.

O Google se esforçou para corrigir erros. Reid, um veterano de 21 anos na empresa, publicou um postagem no blog em 30 de maio, ridicularizando o conteúdo “troll” postado por alguns usuários, mas admitindo que a empresa fez mais de uma dúzia de melhorias técnicas, incluindo a limitação de conteúdo gerado por usuários e conselhos de saúde.

“Você deve ter visto histórias sobre colocar cola em pizza e comer pedras”, disse Reid aos funcionários na reunião geral. Reid foi apresentado ao palco por Prabhakar Raghavan, que dirige Googleorganização do conhecimento e da informação.

Um porta-voz do Google disse em comunicado enviado por e-mail que a “grande maioria” dos resultados é precisa e que a empresa encontrou uma violação da política em “menos de uma em cada 7 milhões de consultas únicas nas quais apareceram visões gerais de IA”.

“Como dissemos, continuamos a refinar quando e como mostramos as visões gerais de IA para que sejam tão úteis quanto possível, incluindo uma série de atualizações técnicas para melhorar a qualidade da resposta”, disse o porta-voz.

Google reduz ferramenta de pesquisa de IA depois que usuários relatam resultados bizarros

Os erros da visão geral da IA ​​​​caíram em um padrão.

Pouco antes de lançar seu chatbot de IA Bard, agora chamado Gemini, no ano passado, os executivos do Google foram confrontados com os desafios colocados pelo ChatGPT, que se tornou viral. Jeff Dean, cientista-chefe do Google e chefe de IA de longa data, disse em dezembro de 2022 que a empresa tinha muito mais “risco de reputação” e precisava se mover “de forma mais conservadora do que uma pequena startup”, já que os chatbots ainda tinham muitos problemas de precisão.

Mas o Google seguiu em frente com seu chatbot e foi criticado por acionistas e funcionários por um lançamento “malfeito” que, segundo alguns, foi organizado às pressas para coincidir com o cronograma de um anúncio da Microsoft.

Um ano depois, o Google lançou sua ferramenta de geração de imagens Gemini, alimentada por IA, mas teve que pausar o produto depois que os usuários descobriram imprecisões históricas e respostas questionáveis ​​que circularam amplamente nas redes sociais. Pichai enviou um e-mail para toda a empresa na época, dizendo que os erros eram “inaceitáveis” e “demonstravam preconceito”.

Equipe vermelha

A postura de Reid sugere que o Google está mais disposto a aceitar erros.

“Na escala da web, com bilhões de consultas chegando todos os dias, é provável que haja algumas estranhezas e erros”, escreveu ela em seu recente post no blog.

Reid disse que algumas consultas de visão geral da IA ​​​​de usuários foram intencionalmente contraditórias e que muitas das piores listadas eram falsas.

“Na verdade, as pessoas criaram modelos sobre como obter engajamento social fazendo visões gerais falsas de IA, então isso é outra coisa em que estamos pensando”, disse Reid.

Ela disse que a empresa faz “muitos testes com antecedência”, bem como “red teaming”, que envolve esforços para encontrar vulnerabilidades na tecnologia antes que possam ser descobertas por pessoas de fora.

“Não importa quantas equipes vermelhas façamos, precisaremos fazer mais”, disse Reid.

Ao implementar produtos de IA, disse Reid, as equipes conseguiram encontrar problemas como “vazios de dados”, que ocorre quando a web não tem dados suficientes para responder corretamente a uma consulta específica. Eles também foram capazes de identificar comentários de uma página específica, detectar sátiras e corrigir a ortografia.

“Não precisamos apenas entender a qualidade do site ou da página, temos que entender cada passagem de uma página”, disse Reid, a respeito dos desafios que a empresa enfrenta.

Reid agradeceu aos funcionários de diversas equipes que trabalharam nas correções e enfatizou a importância do feedback dos funcionários, direcionando os funcionários a um link interno para relatar bugs.

“Sempre que você vê problemas, eles podem ser pequenos ou grandes”, disse ela. “Por favor, arquive-os.”

Não perca essas exclusividades do CNBC PRO

O Google provou que não é um atropelamento de IA, diz Mark Mahaney, da Evercore ISI



CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular