domingo, outubro 6, 2024
InícioTECNOLOGIADeepfakes eleitorais podem minar a credibilidade institucional: Moody's

Deepfakes eleitorais podem minar a credibilidade institucional: Moody’s


Com a temporada eleitoral em andamento e a inteligência artificial evoluindo rapidamente, a manipulação de IA na propaganda política está se tornando uma questão de maior preocupação para o mercado e a economia. Um novo relatório da Moody’s na quarta-feira alerta que IA generativa e deepfakes estão entre os problemas de integridade eleitoral que podem apresentar um risco à credibilidade institucional dos EUA.

“A eleição provavelmente será disputada de perto, aumentando as preocupações de que deepfakes de IA possam ser implantados para enganar os eleitores, exacerbar a divisão e semear a discórdia”, escreveram o vice-presidente assistente e analista da Moody’s, Gregory Sobel, e o vice-presidente sênior William Foster. “Se bem-sucedidos, os agentes de desinformação podem influenciar os eleitores, impactar o resultado das eleições e, finalmente, influenciar a formulação de políticas, o que minaria a credibilidade das instituições dos EUA.”

O governo vem intensificando seus esforços para combater deepfakes. Em 22 de maio, a presidente da Comissão Federal de Comunicações, Jessica Rosenworcel propôs uma nova regra que exigiria que anúncios políticos de TV, vídeo e rádio revelassem se eles usaram conteúdo gerado por IA. A FCC tem se preocupado com o uso de IA nos anúncios deste ciclo eleitoral, com Rosenworcel apontando problemas potenciais com deep fakes e outros conteúdos manipulados.

As redes sociais estão fora da esfera de regulamentação da FCC, mas a Comissão Eleitoral Federal também está considerando regras generalizadas de divulgação de IA que se estenderia a todas as plataformas. Em uma carta a Rosenworcelencorajou a FCC a adiar sua decisão até depois das eleições porque suas mudanças não seriam obrigatórias em anúncios políticos digitais. Eles acrescentaram que poderiam confundir os eleitores que anúncios online sem as divulgações não tinham IA, mesmo que tivessem.

Embora a proposta da FCC possa não cobrir as mídias sociais de imediato, ela abre as portas para outros órgãos que podem regular anúncios no mundo digital, à medida que o governo dos EUA se move para se tornar conhecido como um forte regulador de conteúdo de IA. E, talvez, essas regras possam se estender a ainda mais tipos de publicidade.

“Esta seria uma decisão inovadora que poderia mudar divulgações e anúncios na mídia tradicional nos próximos anos em torno de campanhas políticas”, disse Dan Ives, diretor administrativo e analista sênior de ações da Wedbush Securities. “A preocupação é que você não pode colocar o gênio de volta na garrafa, e há muitas consequências não intencionais com esta decisão.”

Algumas plataformas de mídia social já adotaram algum tipo de divulgação de IA antes das regulamentações. A Meta, por exemplo, exige uma divulgação de IA para toda a sua publicidade e está proibindo todos os novos anúncios políticos na semana que antecede as eleições de novembro. O Google exige que todos os anúncios políticos com conteúdo modificado que “retrate pessoas ou eventos reais ou de aparência realista” tenham divulgações, mas não exige divulgações de IA em todos os anúncios políticos.

As empresas de mídia social têm bons motivos para serem vistas como proativas nessa questão, já que as marcas se preocupam em se alinhar à disseminação de desinformação em um momento crucial para o país. Google e Facebook espera-se que recebam 47% dos US$ 306,94 bilhões projetados para serem gastos em publicidade digital nos EUA em 2024. “Esta é uma questão de terceiro trilho para grandes marcas focadas em publicidade durante um ciclo eleitoral muito divisivo à frente e com desinformação de IA correndo solta. É um momento muito complexo para publicidade online”, disse Ives.

Apesar do autopoliciamento, o conteúdo manipulado por IA consegue chegar em plataformas sem rótulos devido à grande quantidade de conteúdo postado todos os dias. Seja suas mensagens de spam geradas por IA ou grandes quantidades de imagens de IAé difícil encontrar tudo.

“A falta de padrões da indústria e a rápida evolução da tecnologia tornam esse esforço desafiador”, disse Tony Adams, pesquisador sênior de ameaças da Secureworks Counter Threat Unit. “Felizmente, essas plataformas relataram sucessos no policiamento do conteúdo mais prejudicial em seus sites por meio de controles técnicos, ironicamente alimentados por IA.”

Está mais fácil do que nunca criar conteúdo manipulado. Em maio, a Moody’s alertou que deep fakes “já estavam sendo usadas como armas” por governos e entidades não governamentais como propaganda e para criar agitação social e, nos piores casos, terrorismo.

“Até recentemente, criar um deepfake convincente exigia conhecimento técnico significativo de algoritmos especializados, recursos de computação e tempo”, escreveu o vice-presidente assistente da Moody’s Ratings, Abhi Srivastava. “Com o advento de ferramentas Gen AI facilmente acessíveis e baratas, gerar um deepfake sofisticado pode ser feito em minutos. Essa facilidade de acesso, juntamente com as limitações das salvaguardas existentes da mídia social contra a propagação de conteúdo manipulado, cria um ambiente fértil para o uso indevido generalizado de deepfakes.”

Áudio falso profundo por meio de uma chamada automática foi usado em uma corrida presidencial primária em New Hampshire neste ciclo eleitoral.

Um potencial lado positivo, de acordo com a Moody’s, é a natureza descentralizada do sistema eleitoral dos EUA, juntamente com as políticas de segurança cibernética existentes e o conhecimento geral das ameaças cibernéticas iminentes. Isso fornecerá alguma proteção, diz a Moody’s. Estados e governos locais estão promulgando medidas para bloquear ainda mais deepfakes e conteúdo de IA não rotulado, mas as leis de liberdade de expressão e as preocupações com o bloqueio de avanços tecnológicos retardaram o processo em algumas legislaturas estaduais.

Em fevereiro, 50 peças de legislação relacionadas à IA estavam sendo introduzidas por semana em legislaturas estaduais, de acordo com a Moody’s, incluindo um foco em deepfakes. Treze estados têm leis sobre interferência eleitoral e deepfakes, oito das quais foram promulgadas desde janeiro.

A Moody’s observou que os EUA são vulneráveis ​​a riscos cibernéticos, classificado em 10º lugar entre 192 países no Índice de Desenvolvimento do Governo Eletrônico das Nações Unidas.

Uma percepção entre a população de que deepfakes têm a capacidade de influenciar resultados políticos, mesmo sem exemplos concretos, é suficiente para “minar a confiança pública no processo eleitoral e a credibilidade das instituições governamentais, o que é um risco de crédito”, de acordo com a Moody’s. Quanto mais uma população se preocupa em separar os fatos da ficção, maior o risco de o público se tornar desinteressado e desconfiado do governo. “Tais tendências seriam negativas para o crédito, potencialmente levando a maiores riscos políticos e sociais e comprometendo a eficácia das instituições governamentais”, escreveu a Moody’s.

“A resposta da polícia e da FCC pode desencorajar outros atores nacionais de usar IA para enganar eleitores”, disse Adams, da Secureworks. “Mas não há dúvidas de que atores estrangeiros continuarão, como vêm fazendo há anos, a se intrometer na política americana explorando ferramentas e sistemas de IA generativos. Para os eleitores, a mensagem é manter a calma, ficar alerta e votar.”



CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular