A Produção de Chips Locais: Como a China Está a Construir o Seu Próprio Ecossistema de IA

Há anos, o mundo esforça-se por compreender o verdadeiro significado da indústria digital. Agora, qual é a produção na era da revolução AI? Não se trata apenas de fabricar hardware. É a criação de um ecossistema completo onde inovação e independência se unem. Por mais de seis anos, a China tem transitado de esperança de criar soluções próprias para alcançar o verdadeiro controle na computação. Esta história começa numa crise e evolui para uma revolução.

O Gargalo que Não é Hardware: Por que o CUDA é a Verdadeira Barreira

Em 2018, a ZTE passou por uma experiência traumática. Um decreto do Bureau of Industry and Security dos EUA paralisou uma multinacional com 80.000 empregados e receitas anuais na casa dos bilhões de dólares, numa única noite. Sem chips da Qualcomm, sem licença Android do Google—toda a operação foi interrompida.

Porém, em um nível mais profundo, o problema não era só hardware. Era um ecossistema chamado CUDA.

CUDA, ou Compute Unified Device Architecture, é uma plataforma de computação paralela lançada pela NVIDIA em 2006. Durante a revolução do deep learning, tornou-se a base de toda a indústria de IA. Treinar modelos grandes de IA é essencialmente uma operação de matrizes massiva—e aqui, a GPU é única. A NVIDIA construiu um ecossistema completo ao longo de uma década, desde hardware básico até ferramentas de software, usando CUDA.

Hoje, frameworks principais de IA como o TensorFlow do Google e o PyTorch do Meta dependem profundamente do CUDA. Cada pesquisador de IA começa a programar em CUDA desde o primeiro dia. O resultado é um efeito de roda-viva: mais desenvolvedores usam, mais ferramentas são criadas, o ecossistema cresce, mais desenvolvedores entram.

Até 2025, o ecossistema CUDA conta com mais de 4,5 milhões de desenvolvedores e abrange mais de 3.000 aplicações aceleradas por GPU. Mais de 90% dos desenvolvedores de IA no mundo dependem deste ecossistema. Como mudar esse cenário? Sim, é possível—mas é preciso reescrever toda a experiência, ferramentas e código acumulados por mentes brilhantes ao longo de uma década. Quem pagará esse custo?

De Inferência a Treinamento: A Mudança Qualitativa na Produção Local

Diante das regulações contínuas dos EUA—primeiro em 2022 com NVIDIA A100 e H100, depois em 2023 com A800 e H800, e finalmente em 2024 com H20—empresas chinesas de IA não recuam na competição direta. Optam por outro caminho: otimização ao nível de algoritmos.

De final de 2024 a 2025, as empresas chinesas de IA migraram para uma direção técnica: arquitetura de especialistas mistos (MoE). O V3 da DeepSeek é um exemplo. Tem 671 bilhões de parâmetros, mas, em cada inferência, só usa 37 bilhões—apenas 5,5% do total. O custo de treinamento foi de US$5,576 milhões, contra uma estimativa de US$78 milhões para o GPT-4.

Essa otimização algorítmica reflete-se no preço: a API da DeepSeek custa entre US$0,028 e US$0,28 por milhão de tokens de entrada, enquanto o GPT-4 custa US$5. O Claude Opus, US$15. Na China, o custo é de 25 a 75 vezes menor.

Porém, a verdadeira inovação não está só no preço. Em 2025, a aplicação de IA evoluiu de simples conversas para cenários de Agentes, onde o uso de tokens aumentou de 10 a 100 vezes. Nesse volume, o preço tornou-se decisivo.

Hoje, a produção local evolui de inferência para treinamento—um salto qualitativo. Inferência roda apenas modelos pré-treinados; treinamento exige maior poder de computação, largura de banda de interconexão e ecossistema de software.

O Ecossistema de Produção: De Jiangsu Xinghua ao Deployment Global

No meio da transformação industrial, uma linha de produção de servidores foi instalada em Jiangsu Xinghua, uma pequena cidade conhecida por aço inoxidável e alimentos saudáveis. Desde o acordo até a operação, levou apenas 180 dias. A linha usa dois chips locais: o processador Loongson 3C6000 e o acelerador de IA TaiChu Yuanqi T100.

É um marco: a produção atual não é só sobre volume, mas sobre capacidade. Quando cheia, um servidor sai a cada 5 minutos, totalizando 100 mil unidades por ano.

Mais importante, clusters de milhares de chips locais começaram a treinar grandes modelos de verdade. Em janeiro de 2026, foi anunciado o GLM-Image em parceria com a Huawei—primeiro modelo SOTA de geração de imagens treinado inteiramente com chips locais. Em fevereiro, a China Telecom concluiu o treinamento completo do modelo Xingchen na pool de computação local em Shanghai Lingang.

O motor principal por trás disso é a série Huawei Ascend. Até o final de 2025, o ecossistema Ascend conta com 4 milhões de desenvolvedores e mais de 3.000 parceiros. Os 43 principais modelos de grande porte completaram pré-treinamento usando Ascend, com mais de 200 modelos open-source adaptados.

Em 2 de março de 2026, a Huawei lançou a nova infraestrutura SuperPoD. A capacidade de computação FP16 do Ascend 910B equivale à do NVIDIA A100. Se o ecossistema evolui enquanto o chip melhora—sem esperar pela perfeição—a velocidade de atualização é muito rápida.

Vantagem Energética e Poder de Computação: Por que a China Está à Frente

No início de 2026, Virginia parou de emitir novas licenças para data centers. Seguiram-se Georgia, Illinois e Michigan. A rede elétrica dos EUA já não consegue acompanhar.

O uso de energia dos data centers nos EUA em 2024 foi de 183 TWh—4% do consumo total. Até 2030, espera-se 426 TWh, ou 12%. O CEO da Arm afirmou que os data centers de IA podem consumir de 20 a 25% da eletricidade dos EUA até 2030.

Enquanto os EUA se preocupam com energia, a China tem uma vantagem enorme. A produção anual de eletricidade na China é de 10,4 trilhões de unidades, contra 4,2 trilhões nos EUA—apenas 2,5 vezes mais. Ainda mais importante, o uso residencial na China representa apenas 15% do total, enquanto nos EUA chega a 36%. Isso significa maior capacidade industrial disponível para computação.

O preço da energia nas áreas industriais do oeste da China é cerca de US$0,03 por kWh, enquanto nos hubs de IA dos EUA fica entre US$0,12 e US$0,15. A China tem uma vantagem de 4 a 5 vezes.

Tokens e Mercados: A Nova Commodidade Digital em Crescimento

Hoje, enquanto os EUA investem em infraestrutura energética, a China exporta um novo produto: tokens. O token é a menor unidade de informação que um modelo de IA consegue pensar—uma commodity digital produzida em fábricas de computação e enviada ao redor do mundo.

A distribuição de usuários do DeepSeek revela: 30,7% na China, 13,6% na Índia, 6,9% na Indonésia, 4,3% nos EUA, 3,2% na França. Apoia 37 idiomas e cresce rapidamente em mercados emergentes como o Brasil.

Em fevereiro de 2026, na plataforma OpenRouter, o uso semanal de modelos chineses de IA disparou 127% em três semanas, liderando pela primeira vez contra os EUA. Um ano antes, a fatia de mercado dos modelos chineses era inferior a 2%. Agora, atingiu 6%, um aumento de 421%.

Em 27 de fevereiro de 2026, três empresas locais de chips divulgaram resultados. A Cambrian cresceu 453% na receita e atingiu lucro anual pela primeira vez. A Moore Threads subiu 243%, mas com prejuízo de US$1 bilhão. A Muxi aumentou 121%, mas com prejuízo de quase US$8 bilhões.

Meio fogo, meio água. O fogo é a demanda do mercado. Os 95% de receita de Huang Renxun preenchem o espaço deixado pelas empresas locais, uma a uma. O mercado busca uma segunda alternativa sem NVIDIA. Uma oportunidade estrutural sem precedentes.

Lições da História

Há oito anos, um marco aconteceu. Em 1986, o Acordo de Semicondutores EUA-Japão remodelou a indústria. O Japão liderava—até 1988, controlava 51% do mercado global de semicondutores, contra 36% dos EUA. Seis das dez maiores empresas eram japonesas.

Porém, com medidas estratégicas de comércio, fiscalização e apoio a concorrentes coreanos, os EUA reduziram a fatia do Japão em DRAM de 80% para 10%. Os antigos gigantes se dividiram, foram vendidos ou desapareceram.

A tragédia: o Japão se contentou com a divisão global do trabalho, onde era o melhor fabricante, sem construir um ecossistema independente. Quando a maré virou, só tinha manufatura.

A atual indústria de IA da China enfrenta pressão semelhante, mas escolheu um caminho mais difícil: otimização extrema de algoritmos, desenvolvimento de chips locais do inferência ao treinamento, construção de ecossistema com 4 milhões de desenvolvedores Ascend e distribuição global de tokens. Cada passo constrói um ecossistema industrial independente.

O mar é um grande custo para construir esse ecossistema. Cada perda é dinheiro de verdade gasto para seguir o CUDA. São custos de aprendizado, subsídios de software e despesas com engenheiros. É o imposto digital necessário para a independência.

Esses três relatórios financeiros refletem com mais sinceridade o verdadeiro estado da competição do que qualquer outro relatório da indústria. Não é uma celebração, mas uma batalha feroz por posição, onde os soldados sobem enquanto sangram.

Porém, a forma do digital realmente mudou. Há oito anos, a pergunta era “conseguiremos sobreviver?” Agora, é “qual preço devemos pagar para sobreviver?” E esse preço é o próprio progresso.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar