Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A Produção de Chips Locais: Como a China Está a Construir o Seu Próprio Ecossistema de IA
Há anos, o mundo esforça-se por compreender o verdadeiro significado da indústria digital. Agora, qual é a produção na era da revolução AI? Não se trata apenas de fabricar hardware. É a criação de um ecossistema completo onde inovação e independência se unem. Por mais de seis anos, a China tem transitado de esperança de criar soluções próprias para alcançar o verdadeiro controle na computação. Esta história começa numa crise e evolui para uma revolução.
O Gargalo que Não é Hardware: Por que o CUDA é a Verdadeira Barreira
Em 2018, a ZTE passou por uma experiência traumática. Um decreto do Bureau of Industry and Security dos EUA paralisou uma multinacional com 80.000 empregados e receitas anuais na casa dos bilhões de dólares, numa única noite. Sem chips da Qualcomm, sem licença Android do Google—toda a operação foi interrompida.
Porém, em um nível mais profundo, o problema não era só hardware. Era um ecossistema chamado CUDA.
CUDA, ou Compute Unified Device Architecture, é uma plataforma de computação paralela lançada pela NVIDIA em 2006. Durante a revolução do deep learning, tornou-se a base de toda a indústria de IA. Treinar modelos grandes de IA é essencialmente uma operação de matrizes massiva—e aqui, a GPU é única. A NVIDIA construiu um ecossistema completo ao longo de uma década, desde hardware básico até ferramentas de software, usando CUDA.
Hoje, frameworks principais de IA como o TensorFlow do Google e o PyTorch do Meta dependem profundamente do CUDA. Cada pesquisador de IA começa a programar em CUDA desde o primeiro dia. O resultado é um efeito de roda-viva: mais desenvolvedores usam, mais ferramentas são criadas, o ecossistema cresce, mais desenvolvedores entram.
Até 2025, o ecossistema CUDA conta com mais de 4,5 milhões de desenvolvedores e abrange mais de 3.000 aplicações aceleradas por GPU. Mais de 90% dos desenvolvedores de IA no mundo dependem deste ecossistema. Como mudar esse cenário? Sim, é possível—mas é preciso reescrever toda a experiência, ferramentas e código acumulados por mentes brilhantes ao longo de uma década. Quem pagará esse custo?
De Inferência a Treinamento: A Mudança Qualitativa na Produção Local
Diante das regulações contínuas dos EUA—primeiro em 2022 com NVIDIA A100 e H100, depois em 2023 com A800 e H800, e finalmente em 2024 com H20—empresas chinesas de IA não recuam na competição direta. Optam por outro caminho: otimização ao nível de algoritmos.
De final de 2024 a 2025, as empresas chinesas de IA migraram para uma direção técnica: arquitetura de especialistas mistos (MoE). O V3 da DeepSeek é um exemplo. Tem 671 bilhões de parâmetros, mas, em cada inferência, só usa 37 bilhões—apenas 5,5% do total. O custo de treinamento foi de US$5,576 milhões, contra uma estimativa de US$78 milhões para o GPT-4.
Essa otimização algorítmica reflete-se no preço: a API da DeepSeek custa entre US$0,028 e US$0,28 por milhão de tokens de entrada, enquanto o GPT-4 custa US$5. O Claude Opus, US$15. Na China, o custo é de 25 a 75 vezes menor.
Porém, a verdadeira inovação não está só no preço. Em 2025, a aplicação de IA evoluiu de simples conversas para cenários de Agentes, onde o uso de tokens aumentou de 10 a 100 vezes. Nesse volume, o preço tornou-se decisivo.
Hoje, a produção local evolui de inferência para treinamento—um salto qualitativo. Inferência roda apenas modelos pré-treinados; treinamento exige maior poder de computação, largura de banda de interconexão e ecossistema de software.
O Ecossistema de Produção: De Jiangsu Xinghua ao Deployment Global
No meio da transformação industrial, uma linha de produção de servidores foi instalada em Jiangsu Xinghua, uma pequena cidade conhecida por aço inoxidável e alimentos saudáveis. Desde o acordo até a operação, levou apenas 180 dias. A linha usa dois chips locais: o processador Loongson 3C6000 e o acelerador de IA TaiChu Yuanqi T100.
É um marco: a produção atual não é só sobre volume, mas sobre capacidade. Quando cheia, um servidor sai a cada 5 minutos, totalizando 100 mil unidades por ano.
Mais importante, clusters de milhares de chips locais começaram a treinar grandes modelos de verdade. Em janeiro de 2026, foi anunciado o GLM-Image em parceria com a Huawei—primeiro modelo SOTA de geração de imagens treinado inteiramente com chips locais. Em fevereiro, a China Telecom concluiu o treinamento completo do modelo Xingchen na pool de computação local em Shanghai Lingang.
O motor principal por trás disso é a série Huawei Ascend. Até o final de 2025, o ecossistema Ascend conta com 4 milhões de desenvolvedores e mais de 3.000 parceiros. Os 43 principais modelos de grande porte completaram pré-treinamento usando Ascend, com mais de 200 modelos open-source adaptados.
Em 2 de março de 2026, a Huawei lançou a nova infraestrutura SuperPoD. A capacidade de computação FP16 do Ascend 910B equivale à do NVIDIA A100. Se o ecossistema evolui enquanto o chip melhora—sem esperar pela perfeição—a velocidade de atualização é muito rápida.
Vantagem Energética e Poder de Computação: Por que a China Está à Frente
No início de 2026, Virginia parou de emitir novas licenças para data centers. Seguiram-se Georgia, Illinois e Michigan. A rede elétrica dos EUA já não consegue acompanhar.
O uso de energia dos data centers nos EUA em 2024 foi de 183 TWh—4% do consumo total. Até 2030, espera-se 426 TWh, ou 12%. O CEO da Arm afirmou que os data centers de IA podem consumir de 20 a 25% da eletricidade dos EUA até 2030.
Enquanto os EUA se preocupam com energia, a China tem uma vantagem enorme. A produção anual de eletricidade na China é de 10,4 trilhões de unidades, contra 4,2 trilhões nos EUA—apenas 2,5 vezes mais. Ainda mais importante, o uso residencial na China representa apenas 15% do total, enquanto nos EUA chega a 36%. Isso significa maior capacidade industrial disponível para computação.
O preço da energia nas áreas industriais do oeste da China é cerca de US$0,03 por kWh, enquanto nos hubs de IA dos EUA fica entre US$0,12 e US$0,15. A China tem uma vantagem de 4 a 5 vezes.
Tokens e Mercados: A Nova Commodidade Digital em Crescimento
Hoje, enquanto os EUA investem em infraestrutura energética, a China exporta um novo produto: tokens. O token é a menor unidade de informação que um modelo de IA consegue pensar—uma commodity digital produzida em fábricas de computação e enviada ao redor do mundo.
A distribuição de usuários do DeepSeek revela: 30,7% na China, 13,6% na Índia, 6,9% na Indonésia, 4,3% nos EUA, 3,2% na França. Apoia 37 idiomas e cresce rapidamente em mercados emergentes como o Brasil.
Em fevereiro de 2026, na plataforma OpenRouter, o uso semanal de modelos chineses de IA disparou 127% em três semanas, liderando pela primeira vez contra os EUA. Um ano antes, a fatia de mercado dos modelos chineses era inferior a 2%. Agora, atingiu 6%, um aumento de 421%.
Em 27 de fevereiro de 2026, três empresas locais de chips divulgaram resultados. A Cambrian cresceu 453% na receita e atingiu lucro anual pela primeira vez. A Moore Threads subiu 243%, mas com prejuízo de US$1 bilhão. A Muxi aumentou 121%, mas com prejuízo de quase US$8 bilhões.
Meio fogo, meio água. O fogo é a demanda do mercado. Os 95% de receita de Huang Renxun preenchem o espaço deixado pelas empresas locais, uma a uma. O mercado busca uma segunda alternativa sem NVIDIA. Uma oportunidade estrutural sem precedentes.
Lições da História
Há oito anos, um marco aconteceu. Em 1986, o Acordo de Semicondutores EUA-Japão remodelou a indústria. O Japão liderava—até 1988, controlava 51% do mercado global de semicondutores, contra 36% dos EUA. Seis das dez maiores empresas eram japonesas.
Porém, com medidas estratégicas de comércio, fiscalização e apoio a concorrentes coreanos, os EUA reduziram a fatia do Japão em DRAM de 80% para 10%. Os antigos gigantes se dividiram, foram vendidos ou desapareceram.
A tragédia: o Japão se contentou com a divisão global do trabalho, onde era o melhor fabricante, sem construir um ecossistema independente. Quando a maré virou, só tinha manufatura.
A atual indústria de IA da China enfrenta pressão semelhante, mas escolheu um caminho mais difícil: otimização extrema de algoritmos, desenvolvimento de chips locais do inferência ao treinamento, construção de ecossistema com 4 milhões de desenvolvedores Ascend e distribuição global de tokens. Cada passo constrói um ecossistema industrial independente.
O mar é um grande custo para construir esse ecossistema. Cada perda é dinheiro de verdade gasto para seguir o CUDA. São custos de aprendizado, subsídios de software e despesas com engenheiros. É o imposto digital necessário para a independência.
Esses três relatórios financeiros refletem com mais sinceridade o verdadeiro estado da competição do que qualquer outro relatório da indústria. Não é uma celebração, mas uma batalha feroz por posição, onde os soldados sobem enquanto sangram.
Porém, a forma do digital realmente mudou. Há oito anos, a pergunta era “conseguiremos sobreviver?” Agora, é “qual preço devemos pagar para sobreviver?” E esse preço é o próprio progresso.