sábado, outubro 5, 2024
InícioMUNDOGoogle criticado porque a visão geral da IA ​​comete erros, como dizer...

Google criticado porque a visão geral da IA ​​comete erros, como dizer que o presidente Obama é muçulmano


Faz menos de duas semanas desde Google estreou “Visões gerais de IA” na Pesquisa Google, e as críticas públicas aumentaram depois que as consultas retornaram resultados absurdos ou imprecisos dentro do recurso de IA – sem qualquer maneira de cancelar.

As visões gerais de IA mostram um rápido resumo das respostas às perguntas de pesquisa na parte superior da Pesquisa Google: por exemplo, se um usuário pesquisar a melhor maneira de limpar botas de couro, a página de resultados poderá exibir uma “Visão geral de IA” na parte superior com um processo de limpeza em várias etapas, obtido a partir de informações sintetizadas na web.

Mas nas redes sociais, os usuários compartilharam uma ampla variedade de capturas de tela mostrando a ferramenta de IA compartilhando respostas controversas.

Google, Microsoft, OpenAI e outras empresas estão no comando de uma corrida armamentista de IA generativa, à medida que empresas de aparentemente todos os setores correm para adicionar chatbots e agentes com tecnologia de IA para evitar serem deixadas para trás pelos concorrentes. A previsão é que o mercado mais de US$ 1 trilhão em receita dentro de uma década.

Aqui estão alguns exemplos do que deu errado com as visões gerais de IA, de acordo com capturas de tela compartilhadas pelos usuários.

Quando questionados sobre quantos presidentes muçulmanos os EUA tiveram, AI Overviews respondeu“Os Estados Unidos tiveram um presidente muçulmano, Barack Hussein Obama.”

Quando um usuário pesquisou “queijo não gruda na pizza”, o recurso sugerido adicionando “cerca de 1/8 xícara de cola não tóxica ao molho”. Usuários de redes sociais encontraram Comentário do Reddit de 11 anos essa parecia ser a fonte.

Para a consulta “É normal deixar um cachorro em um carro quente”, a ferramenta em determinado momento disse“Sim, é sempre seguro deixar um cachorro em um carro quente”, e passou a fazer referência a um canção fictícia dos Beatles sobre ser seguro deixar cachorros em carros quentes.

A atribuição também pode ser um problema para as visões gerais de IA, especialmente quando se trata de atribuir informações imprecisas a profissionais médicos ou cientistas.

Por exemplo, quando perguntado “Por quanto tempo posso olhar para o sol para ter uma saúde melhor”, a ferramenta disse, “De acordo com o WebMD, os cientistas dizem que olhar para o sol por 5 a 15 minutos, ou até 30 minutos se você tiver pele mais escura, geralmente é seguro e oferece mais benefícios à saúde.” Quando perguntado “Quantas pedras devo comer por dia”, a ferramenta disse“De acordo com geólogos da UC Berkeley, as pessoas deveriam comer pelo menos uma pedra pequena por dia”, listando as vitaminas e os benefícios digestivos.

A ferramenta também pode responder de forma imprecisa a consultas simples, como fazendo uma lista de frutas que terminam com “um”, ou dizer que o ano de 1919 foi 20 anos atras.

Quando questionados se a Pesquisa Google viola ou não a lei antitruste, AI Overviews disse“Sim, o Departamento de Justiça dos EUA e 11 estados estão processando o Google por violações antitruste.”

No dia em que o Google lançou o AI Overviews em seu evento anual Google I/O, a empresa disse que também planeja introduzir recursos de planejamento semelhantes aos de assistentes diretamente na pesquisa. Ele explicou que os usuários poderão pesquisar algo como “‘Crie um plano de refeições de 3 dias para um grupo que seja fácil de preparar'” e obteriam um ponto de partida com uma ampla variedade de receitas de toda a web .

O Google não retornou imediatamente um pedido de comentário.

A notícia segue o lançamento da ferramenta de geração de imagens Gemini pelo Google em fevereiro, e uma pausa no mesmo mês após problemas comparáveis.

A ferramenta permitiu que os usuários inserissem instruções para criar uma imagem, mas quase imediatamente, os usuários descobriram imprecisões históricas e respostas questionáveis, que circularam amplamente nas redes sociais.

Por exemplo, quando um usuário pediu ao Gemini que mostrasse um soldado alemão em 1943, a ferramenta representava um conjunto racialmente diverso de soldados vestindo uniformes militares alemães da época, de acordo com capturas de tela na plataforma de mídia social X.

Quando questionado sobre uma “representação historicamente precisa de um rei britânico medieval”, o modelo gerou outro conjunto de imagens racialmente diversas, incluindo uma de uma mulher governante, capturas de tela mostrou. Usuários relatados resultados semelhantes quando pediram imagens dos pais fundadores dos EUA, de um rei da França no século XVIII, de um casal alemão em 1800 e muito mais. O modelo mostrou uma imagem de homens asiáticos em resposta a uma pergunta sobre os próprios fundadores do Google, relataram usuários.

O Google disse em comunicado na época que estava trabalhando para corrigir os problemas de geração de imagens do Gemini, reconhecendo que a ferramenta estava “errando o alvo”. Logo depois, a empresa anunciou que iria “pausar imediatamente a geração de imagens das pessoas” e “relançar uma versão melhorada em breve”.

Em fevereiro, o CEO do Google DeepMind, Demis Hassabis, disse que o Google planejava relançar sua ferramenta de IA de geração de imagens nas próximas “algumas semanas”, mas ainda não foi lançada novamente.

Os problemas com os resultados de geração de imagens da Gemini reacenderam um debate dentro da indústria da IA, com alguns grupos a chamarem a Gemini de demasiado “acordada” ou de tendência esquerdista, e outros a dizerem que a empresa não investiu suficientemente nas formas corretas de ética da IA. O Google foi criticado em 2020 e 2021 por expulsando os co-líderes de seu grupo de ética em IA depois de publicarem um artigo de pesquisa crítico sobre certos riscos de tais modelos de IA e, posteriormente, reorganizarem a estrutura do grupo.

No ano passado, Pichai foi criticado por alguns funcionários pelo lançamento mal feito e “apressado” do Bard pela empresa, que se seguiu à disseminação viral do ChatGPT.





CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular