quinta-feira, janeiro 23, 2025
InícioTECNOLOGIADo Gmail ao Word, suas configurações de privacidade e IA em um...

Do Gmail ao Word, suas configurações de privacidade e IA em um novo relacionamento


O site do Microsoft 365 em um laptop instalado em Nova York, EUA, na terça-feira, 25 de junho de 2024.

Bloomberg | Bloomberg | Imagens Getty

O início do ano é um ótimo momento para fazer alguma higiene cibernética básica. Todos nós fomos instruídos a corrigir, alterar senhas e atualizar software. Mas uma preocupação que tem vindo cada vez mais a ocupar o primeiro plano é a integração, por vezes silenciosa, da IA ​​potencialmente invasora da privacidade nos programas.

“A rápida integração da IA ​​em nossos softwares e serviços levantou e deve continuar a levantar questões significativas sobre as políticas de privacidade que precederam a era da IA”, disse Lynette Owens, vice-presidente de educação global do consumidor na empresa de segurança cibernética Trend Micro. Muitos programas que utilizamos hoje – sejam e-mail, contabilidade ou ferramentas de produtividade, redes sociais e aplicações de streaming – podem ser regidos por políticas de privacidade que não esclarecem se os nossos dados pessoais podem ser utilizados para treinar modelos de IA.

“Isso deixa todos nós vulneráveis ​​ao uso de nossas informações pessoais sem o consentimento apropriado. É hora de cada aplicativo, site ou serviço online analisar bem os dados que estão coletando, com quem os estão compartilhando, como eles estão compartilhando e se podem ou não ser acessados ​​para treinar modelos de IA”, disse Owens. “Há muita atualização necessária a ser feita.”

Onde a IA já está presente em nossas vidas online diárias

Owens disse que os possíveis problemas se sobrepõem à maioria dos programas e aplicativos que usamos diariamente.

“Muitas plataformas integram IA em suas operações há anos, muito antes de IA se tornar uma palavra da moda”, disse ela.

Como exemplo, Owens aponta que o Gmail usou IA para filtragem de spam e previsão de texto com seu recurso “Escrita Inteligente”. “E serviços de streaming como o Netflix contam com IA para analisar hábitos de visualização e recomendar conteúdo”, disse Owens. Plataformas de mídia social como Facebook e Instagram há muito usam IA para reconhecimento facial em fotos e feeds de conteúdo personalizado.

“Embora essas ferramentas ofereçam conveniência, os consumidores devem considerar as possíveis compensações em termos de privacidade, como a quantidade de dados pessoais que estão sendo coletados e como eles são usados ​​para treinar sistemas de IA. Todos devem revisar cuidadosamente as configurações de privacidade, entender quais dados estão sendo compartilhados, e verifique regularmente se há atualizações nos termos de serviço”, disse Owens.

Uma ferramenta que passou por um escrutínio particular são as experiências conectadas da Microsoft, que existem desde 2019 e são ativadas com um opt-out opcional. Recentemente, foi destacado em reportagens da imprensa – de forma imprecisa, de acordo com a empresa e também com alguns especialistas externos em segurança cibernética que analisaram o problema – como um recurso novo ou que teve suas configurações alteradas. Deixando de lado as manchetes sensacionais, os especialistas em privacidade temem que os avanços na IA possam levar ao potencial de dados e palavras em programas como o Microsoft Word serem usados ​​de maneiras que as configurações de privacidade não cobrem adequadamente.

“Quando ferramentas como experiências conectadas evoluem, mesmo que as configurações de privacidade subjacentes não tenham mudado, as implicações do uso de dados podem ser muito mais amplas”, disse Owens.

Um porta-voz da Microsoft escreveu em uma declaração à CNBC que a Microsoft não usa dados de clientes de aplicativos comerciais e de consumo do Microsoft 365 para treinar grandes modelos de linguagem fundamentais. Ele acrescentou que, em certos casos, os clientes podem consentir na utilização dos seus dados para fins específicos, como o desenvolvimento de modelos personalizados explicitamente solicitados por alguns clientes comerciais. Além disso, a configuração permite recursos baseados na nuvem que muitas pessoas esperam de ferramentas de produtividade, como coautoria em tempo real, armazenamento em nuvem e ferramentas como o Editor no Word, que fornece sugestões de ortografia e gramática.

As configurações de privacidade padrão são um problema

Ted Miracco, CEO da empresa de software de segurança Approov, disse que recursos como as experiências conectadas da Microsoft são uma faca de dois gumes – a promessa de maior produtividade, mas a introdução de sinais de alerta de privacidade significativos. O status padrão da configuração poderia, disse Miracco, incluir as pessoas em algo que elas não necessariamente conhecem, principalmente relacionado à coleta de dados, e as organizações também podem querer pensar duas vezes antes de deixar o recurso ativado.

“A garantia da Microsoft oferece apenas um alívio parcial, mas ainda não consegue mitigar algumas preocupações reais com a privacidade”, disse Miracco.

A percepção pode ser um problema em si, de acordo com Kaveh Vadat, fundador da RiseOpp, uma agência de marketing de SEO.

Ter o padrão de ativação muda a dinâmica significativamente”, disse Vahdat. “A ativação automática desses recursos, mesmo com boas intenções, coloca inerentemente sobre os usuários o ônus de revisar e modificar suas configurações de privacidade, o que pode parecer intrusivo ou manipulador para alguns.”

A sua opinião é que as empresas precisam de ser mais transparentes, e não menos, num ambiente onde há muita desconfiança e suspeita em relação à IA.

As empresas, incluindo a Microsoft, devem enfatizar a opção padrão de não participação em vez da opção de participação, e podem fornecer informações mais granulares e não técnicas sobre como o conteúdo pessoal é tratado, porque a percepção pode se tornar uma realidade.

“Mesmo que a tecnologia seja completamente segura, a percepção pública é moldada não apenas por factos, mas por medos e suposições – especialmente na era da IA, onde os utilizadores muitas vezes se sentem impotentes”, disse ele.

Sam Altman da OpenAI: A parceria com a Microsoft tem sido tremendamente positiva para ambas as empresas

As configurações padrão que permitem o compartilhamento fazem sentido por motivos comerciais, mas são ruins para a privacidade do consumidor, de acordo com Jochem Hummel, professor assistente de sistemas de informação e gestão na Warwick Business School da Universidade de Warwick, na Inglaterra.

As empresas são capazes de melhorar os seus produtos e manter a competitividade com mais partilha de dados como padrão, disse Hummel. No entanto, do ponto de vista do utilizador, priorizar a privacidade através da adopção de um modelo opt-in para a partilha de dados seria “uma abordagem mais ética”, disse ele. E desde que as funcionalidades adicionais oferecidas através da recolha de dados não sejam indispensáveis, os utilizadores podem escolher qual se alinha melhor com os seus interesses.

Existem benefícios reais no atual equilíbrio entre ferramentas melhoradas por IA e privacidade, disse Hummel, com base no que vê nos trabalhos entregues pelos estudantes. Os estudantes que cresceram com câmaras web, transmissões ao vivo em tempo real nas redes sociais e tecnologia abrangente, muitas vezes estão menos preocupados com a privacidade, disse Hummel, e estão a abraçar estas ferramentas com entusiasmo. “Meus alunos, por exemplo, estão criando apresentações melhores do que nunca”, disse ele.

Gerenciando os riscos

Em áreas como a lei de direitos autorais, os temores sobre cópias massivas por LLMs foram exagerados, de acordo com Kevin Smith, diretor de bibliotecas do Colby College, mas a evolução da IA ​​cruza-se com preocupações centrais de privacidade.

“Muitas das preocupações de privacidade levantadas atualmente sobre a IA já existem há anos; a rápida implantação de IA treinada em grandes modelos de linguagem acaba de chamar a atenção para algumas dessas questões”, disse Smith. “As informações pessoais têm tudo a ver com relacionamentos, por isso o risco de os modelos de IA poderem descobrir dados mais seguros num sistema mais ‘estático’ é a verdadeira mudança que precisamos para encontrar formas de gerir”, acrescentou.

Na maioria dos programas, desligar os recursos de IA é uma opção oculta nas configurações. Por exemplo, com experiências conectadas, abra um documento e clique em “arquivo”, vá para “conta” e encontre as configurações de privacidade. Uma vez lá, vá em “gerenciar configurações” e role para baixo até experiências conectadas. Clique na caixa para desligá-lo. Ao fazer isso, a Microsoft avisa: “Se você desligar isso, algumas experiências podem não estar disponíveis para você”. A Microsoft diz que deixar a configuração ativada permitirá mais comunicação, colaboração e sugestões de IA.

No Gmail, é necessário abri-lo, tocar no menu, ir para configurações, clicar na conta que deseja alterar e, em seguida, rolar até a seção “geral” e desmarcar as caixas ao lado dos vários “recursos inteligentes” e opções de personalização. .

Como o fornecedor de segurança cibernética Malwarebytes colocou uma postagem no blog sobre o recurso da Microsoft: “desativar essa opção pode resultar na perda de alguma funcionalidade se você estiver trabalhando no mesmo documento com outras pessoas em sua organização. … Se você deseja desativar essas configurações por motivos de privacidade e não as usa de qualquer maneira, faça isso. As configurações podem ser encontradas em Configurações de privacidade por um motivo. Mas em nenhum lugar consegui encontrar qualquer indicação de que essas experiências conectadas foram usadas para treinar modelos de IA.

Embora essas instruções sejam fáceis de seguir e aprender mais sobre o que você concordou seja provavelmente uma boa opção, alguns especialistas dizem que a responsabilidade de desativar essas configurações não deve recair sobre o consumidor. “Quando as empresas implementam recursos como esses, muitas vezes os apresentam como opções para funcionalidades aprimoradas, mas os usuários podem não compreender totalmente o escopo do que estão concordando”, disse Wes Chaar, especialista em privacidade de dados.

“O cerne da questão reside nas divulgações vagas e na falta de comunicação clara sobre o que significa ‘conectado’ e quão profundamente seu conteúdo pessoal é analisado ou armazenado”, disse Chaar. “Para quem está fora da tecnologia, isso pode ser comparado a convidar um assistente prestativo para sua casa, apenas para descobrir mais tarde que ele fez anotações sobre suas conversas privadas para um manual de treinamento.”

A decisão de gerir, limitar ou mesmo revogar o acesso aos dados sublinha o desequilíbrio no atual ecossistema digital. “Sem sistemas robustos que priorizem o consentimento do usuário e ofereçam controle, os indivíduos ficam vulneráveis ​​a ter seus dados reaproveitados de maneiras que não antecipam nem das quais não se beneficiam”, disse Chaar.



CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular