sexta-feira, outubro 11, 2024
InícioTECNOLOGIAOs trabalhadores não deveriam tratar todas as empresas de IA da mesma...

Os trabalhadores não deveriam tratar todas as empresas de IA da mesma forma


Zahra Bahrololoumi, CEO do Reino Unido e Irlanda da Salesforce, falando durante a conferência anual Dreamforce da empresa em São Francisco, Califórnia, em 17 de setembro de 2024.

David Paul Morris | Bloomberg | Imagens Getty

LONDRES – O presidente-executivo do Reino Unido Força de vendas quer que o governo trabalhista regule a inteligência artificial – mas diz que é importante que os legisladores não considerem todas as empresas de tecnologia que desenvolvem sistemas de IA com o mesmo pincel.

Falando à CNBC em Londres, Zahra Bahrololoumi, CEO do Reino Unido e Irlanda da Salesforce, disse que a gigante americana do software empresarial leva toda a legislação “a sério”. No entanto, ela acrescentou que quaisquer propostas britânicas destinadas a regulamentar a IA devem ser “proporcionais e personalizadas”.

Bahrololoumi observou que há uma diferença entre empresas que desenvolvem ferramentas de IA voltadas para o consumidor – como OpenAI – e empresas como a Salesforce que criam sistemas empresariais de IA. Ela disse que os sistemas de IA voltados para o consumidor, como o ChatGPT, enfrentam menos restrições do que os produtos de nível empresarial, que precisam atender a padrões de privacidade mais elevados e cumprir as diretrizes corporativas.

“O que procuramos é uma legislação direcionada, proporcional e personalizada”, disse Bahrololoumi à CNBC na quarta-feira.

“Há definitivamente uma diferença entre as organizações que operam com tecnologia voltada para o consumidor e tecnologia de consumo, e aquelas que são de tecnologia empresarial. E cada um de nós tem funções diferentes no ecossistema, [but] somos uma organização B2B”, disse ela.

Um porta-voz do Departamento de Ciência, Inovação e Tecnologia (DSIT) do Reino Unido disse que as regras planejadas para IA seriam “altamente direcionadas ao punhado de empresas que desenvolvem os modelos de IA mais poderosos”, em vez de aplicar “regras gerais sobre o uso de IA”. “

Isso indica que as regras podem não se aplicar a empresas como a Salesforce, que não criam seus próprios modelos fundamentais como o OpenAI.

“Reconhecemos o poder da IA ​​para impulsionar o crescimento e melhorar a produtividade e estamos absolutamente empenhados em apoiar o desenvolvimento do nosso sector de IA, particularmente à medida que aceleramos a adopção da tecnologia em toda a nossa economia”, acrescentou o porta-voz do DSIT.

Segurança de dados

A Salesforce tem elogiado fortemente as considerações de ética e segurança incorporadas em sua plataforma de tecnologia Agentforce AI, que permite que organizações empresariais criem seus próprios “agentes” de IA – essencialmente, trabalhadores digitais autônomos que realizam tarefas para diferentes funções, como vendas, serviços ou marketing.

Por exemplo, um recurso chamado “retenção zero” significa que nenhum dado do cliente pode ser armazenado fora do Salesforce. Como resultado, os prompts e resultados generativos da IA ​​não são armazenados nos grandes modelos de linguagem do Salesforce – os programas que formam a base dos chatbots genAI atuais, como o ChatGPT.

Com chatbots de IA de consumo, como ChatGPT, Claude da Anthropic ou assistente de IA da Meta, não está claro quais dados estão sendo usados ​​para treiná-los ou onde esses dados são armazenados, de acordo com Bahrololoumi.

“Para treinar esses modelos são necessários muitos dados”, disse ela à CNBC. “E assim, com algo como o ChatGPT e esses modelos de consumo, você não sabe o que está usando.”

Até mesmo o Copilot da Microsoft, que é comercializado para clientes empresariais, apresenta riscos elevados, disse Bahrololoumi, citando um Relatório do Gartner criticando o assistente pessoal de IA da gigante da tecnologia sobre os riscos de segurança que representa para as organizações.

OpenAI e Microsoft não estavam imediatamente disponíveis para comentar quando contatados pela CNBC.

Preocupações com IA ‘aplicam-se em todos os níveis’

Bola Rotibi, chefe de pesquisa empresarial da empresa de análise CCS Insight, disse à CNBC que, embora os fornecedores de IA focados nas empresas sejam “mais conscientes dos requisitos de nível empresarial” em relação à segurança e privacidade de dados, seria errado presumir que as regulamentações não examinariam minuciosamente empresas voltadas para o consumidor e para os negócios.

“Todas as preocupações em torno de coisas como consentimento, privacidade, transparência e soberania de dados se aplicam em todos os níveis, não importa se é consumidor ou empresa, já que tais detalhes são regidos por regulamentos como o GDPR”, disse Rotibi à CNBC por e-mail. O GDPR, ou Regulamento Geral de Proteção de Dados, tornou-se lei no Reino Unido em 2018.

No entanto, Rotibi disse que os reguladores podem se sentir “mais confiantes” nas medidas de conformidade de IA adotadas por fornecedores de aplicações empresariais como a Salesforce, “porque entendem o que significa fornecer soluções de nível empresarial e suporte de gestão”.

“É provável que haja um processo de revisão mais matizado para os serviços de IA de provedores de soluções empresariais amplamente implantados, como o Salesforce”, acrescentou ela.

Bahrololoumi falou com a CNBC no Agentforce World Tour da Salesforce em Londres, um evento projetado para promover o uso da nova tecnologia de IA “agentica” da empresa por parceiros e clientes.

Seus comentários foram feitos depois que o Partido Trabalhista do primeiro-ministro do Reino Unido, Keir Starmer, se absteve de introduzir um projeto de lei de IA no Discurso do Rei, que foi escrito pelo governo para delinear suas prioridades para os próximos meses. O governo da época disse que planeja estabelecer “legislação apropriada” para IA, sem oferecer mais detalhes.



CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular