domingo, outubro 6, 2024
InícioTECNOLOGIAReguladores chineses começam a testar modelos GenAI com base em valores socialistas

Reguladores chineses começam a testar modelos GenAI com base em valores socialistas


Código digital e bandeira chinesa representando a segurança cibernética na China.

Anton Petrus | Momento | Getty Images

As empresas de IA na China estão passando por uma revisão governamental de seus grandes modelos de linguagem, com o objetivo de garantir que eles “incorporem valores socialistas essenciais”, de acordo com um relatório pelo Financial Times.

A revisão está sendo realizada pela Administração do Ciberespaço da China (CAC), o principal regulador da Internet do governo, e cobrirá participantes de todo o espectro, desde gigantes da tecnologia como ByteDance e Alibaba para pequenas startups.

Os modelos de IA serão testados por autoridades locais do CAC para suas respostas a uma variedade de perguntas, muitas relacionadas a tópicos politicamente sensíveis e ao presidente chinês Xi Jinping, disse o FT. Os dados de treinamento e os processos de segurança do modelo também serão revisados.

Uma fonte anônima de uma empresa de IA sediada em Hangzhou que falou com o FT disse que seu modelo não passou na primeira rodada de testes por razões pouco claras. Eles só passaram na segunda vez depois de meses de “adivinhar e ajustar”, disseram no relatório.

Os esforços mais recentes do CAC ilustram como Pequim andou na corda bamba entre alcançar os EUA no GenAI e, ao mesmo tempo, manter um olhar atento sobre o desenvolvimento da tecnologia, garantindo que o conteúdo gerado por IA cumpra suas rígidas políticas de censura na internet.

Para os players de IA da China, 2024 é um

O país foi um dos primeiros a finalizar as regras que regem a inteligência artificial generativa no ano passado, incluindo a exigência de que os serviços de IA sigam os “valores fundamentais do socialismo” e não gerem conteúdo “ilegal”.

Atender às políticas de censura exige “filtragem de segurança”, o que se tornou mais complicado porque os LLMs chineses ainda são treinados em uma quantidade significativa de conteúdo em inglês, disseram vários engenheiros e especialistas do setor ao FT.

De acordo com o relatório, a filtragem é feita removendo “informações problemáticas” dos dados de treinamento do modelo de IA e, em seguida, criando um banco de dados de palavras e frases sensíveis.

Segundo relatos, as regulamentações levaram os chatbots mais populares do país a se recusarem a responder perguntas sobre tópicos delicados, como os protestos da Praça da Paz Celestial em 1989.

No entanto, durante os testes do CAC, há limites no número de perguntas que os LLMs podem recusar imediatamente, então os modelos precisam ser capazes de gerar “respostas politicamente corretas” para perguntas delicadas.

Um especialista em IA que trabalha em um chatbot na China disse ao FT que é difícil evitar que os LLMs gerem todo o conteúdo potencialmente prejudicial, então eles criam uma camada adicional no sistema que substitui respostas problemáticas em tempo real.

Regulamentações, assim como sanções dos EUA que restringiram o acesso a chips usados ​​para treinar LLMs, dificultaram que empresas chinesas lançassem seus próprios serviços semelhantes ao ChatGPT. A China, no entanto, domina a corrida global em patentes de IA generativa.

Leia o relatório completo do FT



CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular