domingo, outubro 6, 2024
InícioTECNOLOGIAMaiores riscos da geração de IA na sua vida privada: ChatGPT, Gemini,...

Maiores riscos da geração de IA na sua vida privada: ChatGPT, Gemini, Copilot


Muitos consumidores estão apaixonados pela IA generativa, usando novas ferramentas para todos os tipos de questões pessoais ou comerciais.

Mas muitos ignoram as potenciais ramificações de privacidade, que podem ser significativas.

Do ChatGPT da OpenAI ao Gemini do Google, ao software Microsoft Copilot e ao novo Apple Intelligence, as ferramentas de IA para consumidores são facilmente acessíveis e proliferam. No entanto, as ferramentas têm diferentes políticas de privacidade relacionadas ao uso de dados do usuário e sua retenção. Em muitos casos, os consumidores não estão cientes de como seus dados são ou podem ser usados.

É aí que ser um consumidor informado se torna extremamente importante. Existem diferentes granularidades sobre o que você pode controlar, dependendo da ferramenta, disse Jodi Daniels, diretora executiva e consultora de privacidade da Red Clover Advisors, que presta consultoria a empresas sobre questões de privacidade. “Não há um opt-out universal em todas as ferramentas”, disse Daniels.

A proliferação de ferramentas de IA — e sua integração em muito do que os consumidores fazem em seus computadores pessoais e smartphones — torna essas questões ainda mais pertinentes. Alguns meses atrás, por exemplo, a Microsoft lançou seus primeiros Surface PCs com um botão Copilot dedicado no teclado para acessar rapidamente o chatbot, cumprindo uma promessa de vários meses antes. Por sua vez, a Apple delineou no mês passado sua visão para IA — que gira em torno de vários modelos menores que rodam em dispositivos e chips da Apple. Executivos da empresa falaram publicamente sobre a importância que a empresa dá à privacidade, o que pode ser um desafio com modelos de IA.

Aqui estão várias maneiras pelas quais os consumidores podem proteger sua privacidade na nova era da IA ​​generativa.

Pergunte à IA as questões de privacidade que ela deve ser capaz de responder

Antes de escolher uma ferramenta, os consumidores devem ler cuidadosamente as políticas de privacidade associadas. Como suas informações são usadas e como elas podem ser usadas? Existe uma opção para desativar o compartilhamento de dados? Existe uma maneira de limitar quais dados são usados ​​e por quanto tempo os dados são retidos? Os dados podem ser excluídos? Os usuários precisam passar por obstáculos para encontrar as configurações de opt-out?

De acordo com profissionais de privacidade, deve ser um sinal de alerta se você não puder responder prontamente a essas perguntas ou encontrar respostas para elas nas políticas de privacidade do provedor.

“Uma ferramenta que se preocupa com a privacidade vai lhe dizer isso”, disse Daniels.

E se não, “Você tem que ter propriedade sobre isso”, Daniels acrescentou. “Você não pode simplesmente presumir que a empresa fará a coisa certa. Cada empresa tem valores diferentes e cada empresa ganha dinheiro de forma diferente.”

Ela deu o exemplo do Grammarly, uma ferramenta de edição usada por muitos consumidores e empresas, como uma empresa que explica claramente em vários lugares do seu site como os dados são usados.

Mantenha dados confidenciais fora de grandes modelos de linguagem

Algumas pessoas são muito confiantes quando se trata de inserir dados confidenciais em modelos de IA generativa, mas Andrew Frost Moroz, fundador do Aloha Browser, um navegador focado em privacidade, recomenda que as pessoas não insiram nenhum tipo de dado confidencial, pois elas realmente não sabem como eles podem ser usados ​​ou possivelmente mal utilizados.

Isso é verdade para todos os tipos de informações que as pessoas podem inserir, sejam elas pessoais ou relacionadas ao trabalho. Muitas corporações expressaram preocupações significativas sobre funcionários usando modelos de IA para ajudar em seu trabalho, porque os trabalhadores podem não considerar como essas informações estão sendo usadas pelo modelo para fins de treinamento. Se você estiver inserindo um documento confidencial, o modelo de IA agora tem acesso a ele, o que pode levantar todos os tipos de preocupações. Muitas empresas só aprovarão o uso de versões personalizadas de ferramentas de IA de geração que mantêm um firewall entre informações proprietárias e grandes modelos de linguagem.

Indivíduos também devem pecar por excesso de cautela e não usar modelos de IA para nada não público ou que você não gostaria que fosse compartilhado com outros em nenhuma capacidade, disse Frost Moroz. A consciência de como você está usando IA é importante. Se você estiver usando para resumir um artigo da Wikipédia, isso pode não ser um problema. Mas se você estiver usando para resumir um documento legal pessoal, por exemplo, isso não é aconselhável. Ou digamos que você tenha uma imagem de um documento e queira copiar um parágrafo específico. Você pode pedir para a IA ler o texto para que você possa copiá-lo. Ao fazer isso, o modelo de IA saberá o conteúdo do documento, então os consumidores precisam ter isso em mente, disse ele.

Use as opções de exclusão oferecidas pela OpenAI e Google

Cada ferramenta de IA de geração tem suas próprias políticas de privacidade e pode ter opções de opt-out. Gemini, por exemplo, permite que os usuários criem um período de retenção e excluir determinados dados, entre outros controles de atividade.

Os usuários podem optar por não ter seus dados usados ​​para treinamento de modelos pelo ChatGPT. Para fazer isso, eles precisam navegar até o ícone do perfil no canto inferior esquerdo da página e selecionar Controles de Dados no cabeçalho Configurações. Eles então precisam desabilitar o recurso que diz “Melhore o modelo para todos”. Enquanto isso estiver desabilitado, novas conversas não serão usadas para treinar os modelos do ChatGPT, de acordo com um FAQ no OpenAI’s local na rede Internet.

Não há nenhuma vantagem real para os consumidores em permitir que a IA de geração treine seus dados e há riscos que ainda estão sendo estudados, disse Jacob Hoffman-Andrews, tecnólogo sênior da Electronic Frontier Foundation, um grupo internacional sem fins lucrativos de direitos digitais.

Se dados pessoais forem publicados indevidamente na web, os consumidores podem conseguir removê-los e então eles desaparecerão dos mecanismos de busca. Mas destreinar modelos de IA é um jogo de bola totalmente diferente, ele disse. Pode haver algumas maneiras de mitigar o uso de certas informações uma vez que estejam em um modelo de IA, mas não é infalível e como fazer isso efetivamente é uma área de pesquisa ativa, ele disse.

Opte por participar, como no caso do Microsoft Copilot, apenas por bons motivos

As empresas estão integrando IA de geração em ferramentas cotidianas que as pessoas usam em suas vidas pessoais e profissionais. O Copilot para Microsoft 365, por exemplo, funciona dentro do Word, Excel e PowerPoint para ajudar os usuários com tarefas como análise, geração de ideias, organização e muito mais.

Para essas ferramentas, a Microsoft diz que não compartilha dados do consumidor com terceiros sem permissão e não usa dados do cliente para treinar o Copilot ou seus recursos de IA sem consentimento.

Os usuários podem, no entanto, optar por participar, se quiserem, entrando no centro de administração do Power Platform, selecionando configurações, configurações de locatário e ativando o compartilhamento de dados para o Dynamics 365 Copilot e os recursos do Power Platform Copilot AI. Eles permitem o compartilhamento de dados e salvam.

As vantagens de optar incluem a capacidade de tornar os recursos existentes mais eficazes. A desvantagem, no entanto, é que os consumidores perdem o controle de como seus dados são usados, o que é uma consideração importante, dizem os profissionais de privacidade.

A boa notícia é que os consumidores que optaram pela Microsoft podem retirar seu consentimento a qualquer momento. Os usuários podem fazer isso acessando a página de configurações do locatário em Configurações no centro de administração do Power Platform e desativando o compartilhamento de dados para o Dynamics 365 Copilot e o Power Platform Copilot AI Features.

Defina um curto período de retenção para IA generativa para pesquisa

Os consumidores podem não pensar muito antes de buscar informações usando IA, usando-a como fariam com um mecanismo de busca para gerar informações e ideias. No entanto, até mesmo buscar certos tipos de informações usando IA gen pode ser intrusivo à privacidade de uma pessoa, então há práticas recomendadas ao usar ferramentas para esse propósito também. Se possível, defina um curto período de retenção para a ferramenta de IA gen, disse Hoffman-Andrews. E exclua os chats, se possível, depois de obter as informações procuradas. As empresas ainda têm logs de servidor, mas isso pode ajudar a reduzir o risco de um terceiro obter acesso à sua conta, disse ele. Também pode reduzir o risco de informações confidenciais se tornarem parte do treinamento do modelo. “Realmente depende das configurações de privacidade do site em particular.”



CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular