terça-feira, outubro 8, 2024
InícioTECNOLOGIAA Apple diz que seus modelos de IA foram treinados em chips...

A Apple diz que seus modelos de IA foram treinados em chips personalizados do Google


Sundar Pichai e Tim Cook

Fonte: Reuters; Apple

Maçã disse na segunda-feira que os modelos de inteligência artificial que sustentam o Apple Intelligence, seu sistema de IA, foram pré-treinados em processadores projetados pelo Google, um sinal de que as grandes empresas de tecnologia estão procurando alternativas para Nvidia quando se trata de treinamento de IA de ponta.

A escolha da Apple de do Google Unidade de Processamento de Tensor (TPU) desenvolvida internamente para treinamento foi detalhada em um artigo técnico recém-publicado por a empresa. Separadamente, a Apple lançou uma versão prévia do Apple Intelligence para alguns dispositivos na segunda-feira.

As caras unidades de processamento gráfico (GPUs) da Nvidia dominam o mercado de chips de treinamento de IA de ponta e têm tido uma demanda tão alta nos últimos dois anos que tem sido difícil obtê-las nas quantidades necessárias. OpenAI, Microsofte a Anthropic estão usando GPUs da Nvidia para seus modelos, enquanto outras empresas de tecnologia, incluindo o Google, Meta, Oráculo e Tesla estão contratando-os para desenvolver seus sistemas e ofertas de IA.

O CEO da Meta, Mark Zuckerberg, e o CEO da Alphabet, Sundar Pichai, fizeram comentários na semana passada sugerindo que suas empresas e outras no setor podem estar investindo demais em infraestrutura de IA, mas reconheceram que o risco comercial de fazer o contrário era muito alto.

“A desvantagem de estar para trás é que você está fora de posição para a tecnologia mais importante pelos próximos 10 a 15 anos”, disse Zuckerberg em uma entrevista. podcast com Emily Chang, da Bloomberg.

A Apple não menciona o Google ou a Nvidia em seu artigo de 47 páginas, mas observou que seu Apple Foundation Model (AFM) e o servidor AFM são treinados em “clusters Cloud TPU”. Isso significa que a Apple alugou servidores de um provedor de nuvem para realizar os cálculos.

“Este sistema nos permite treinar os modelos AFM de forma eficiente e escalável, incluindo AFM no dispositivo, AFM no servidor e modelos maiores”, disse a Apple no artigo.

Representantes da Apple e do Google não responderam aos pedidos de comentários.

O ceticismo em relação à IA é saudável para o setor de tecnologia, diz Glen Kacher, da Light Street

A Apple revelou seus planos de IA mais tarde do que muitos de seus pares, que adotaram ruidosamente a IA generativa logo após o lançamento do ChatGPT pela OpenAI no final de 2022. Na segunda-feira, a Apple apresentou o Apple Intelligence. O sistema inclui vários novos recursos, como um visual renovado para a Siri, melhor processamento de linguagem natural e resumos gerados por IA em campos de texto.

No próximo ano, a Apple planeja lançar funções baseadas em IA generativa, incluindo geração de imagens, geração de emojis e uma Siri aprimorada que pode acessar informações pessoais do usuário e realizar ações dentro de aplicativos.

No artigo de segunda-feira, a Apple disse que o AFM no dispositivo foi treinado em uma única “fatia” de 2048 chips TPU v5p trabalhando juntos. Esse é o TPU mais avançado, lançado pela primeira vez em dezembro. O servidor AFM foi treinado em 8192 chips TPU v4 que foram configurados para trabalhar juntos como oito fatias por meio de uma rede de data center, de acordo com o artigo.

Os mais recentes TPUs do Google custam menos de US$ 2 por hora de uso do chip quando reservados com três anos de antecedência, de acordo com para o site do Google. O Google introduziu suas TPUs pela primeira vez em 2015 para cargas de trabalho internas e as disponibilizou ao público em 2017. Elas agora estão entre os chips personalizados mais maduros projetados para inteligência artificial.

Ainda assim, o Google é um dos principais clientes da Nvidia. Ele usa as GPUs da Nvidia e suas próprias TPUs para treinar sistemas de IA, e também vende acesso à tecnologia da Nvidia em sua nuvem.

A Apple disse anteriormente que a inferência, que significa pegar um modelo de IA pré-treinado e executá-lo para gerar conteúdo ou fazer previsões, aconteceria parcialmente nos próprios chips da Apple em seus data centers.

Este é o segundo artigo técnico sobre o sistema de IA da Apple, depois que uma versão mais geral foi publicada em junho. A Apple disse no momento que estava usando TPUs ao desenvolver seus modelos de IA.

A Apple deve divulgar os resultados trimestrais após o fechamento do pregão na quinta-feira.

Não perca esses insights da CNBC PRO

Como o enorme consumo de energia da IA ​​generativa está sobrecarregando nossa rede



CNBC

ARTIGOS RELACIONADOS
- Advertisment -

Mais popular