
Resumidamente? Não estamos apenas vendo mais um lançamento do LLM. É uma mudança de paradigma.
Se o Deepseek puder atingir o desempenho do nível GPT-4O a 1/15 do custo, as implicações se estendem muito além do treinamento do modelo. Eles nos forçam a repensar tudo sobre economia, infraestrutura e sustentabilidade da IA. É por isso que tEle Nasdaq caiu 3% na segunda -feiraimpulsionado por perdas do fabricante de chips Nvidia de quase 17%.
Mas, em meio a todos os debates sobre a qualidade do modelo, as avaliações e a raça geopolítica da IA, algumas questões cruciais estão sendo ignoradas:
-
O que isso significa para as centenas de data centers que estão sendo construídos esperando densidade de computação muito alta … que agora pode agora chegar?
-
Por que sempre medimos a eficiência do data center em termos de desperdício de energia, mas nunca questionamos a eficiência da eficiência que ele realmente usa esse poder?
-
E se o gargalo da AI real não for disponibilidade de hardware – mas a ineficiência do próprio software?
A guerra errada: por que os data centers se concentraram no .45, não no 1
Durante anos, a métrica de eficiência primária para data centers tem sido Eficácia do uso de energia (PUE). Uma PUE de 1,45 (a média do Oriente Médio) significa que, para cada 1 kWh de TI, um adicional de 0,45 kWh é consumido pelo ar condicionado, iluminação, banheiros, etc.
Mas eu – e muitos outros – argumentamos há muito tempo que essa obsessão por despesas gerais perde o quadro geral. E se a ineficiência real não estivesse no resfriamento – mas na própria computação? E se, em vez de cortar o .45, começamos a cortar o 1? Claro, isso levaria a pues mais altos, isso é apenas matemática … mas a IA ficaria com menos energia com fome, em um momento em que seu consumo está fazendo manchetes.
O avanço de Deepseek prova que isso não é apenas teórico:
-
Em vez de o desenvolvimento de IA forçando bruto com aglomerados de GPUs H100, Deepseek otimizou todas as camadas do processo
-
Usando Mistura de especialistas (MOE), inovações de balanceamento de carga e atenção latente de várias cabeças, eles reduziram a sobrecarga de computação por ordens de magnitude
-
Eles treinaram seu modelo mais recente por menos de US $ 6 milhões, usando um cluster de GPU H800 relativamente ineficiente e sancionado pelos EUA-e ainda alcançado perto dos níveis de desempenho GPT-4O
Em outras palavras: Deepseek apertou o 1.
Isso levanta um desafio fundamental para todos os laboratórios de IA, hiperscaler e operador de data center: se os modelos podem ser tornados 100x mais eficientes, por que ainda estamos gastando bilhões em aglomerados densos e pesados de GPU e soluções de resfriamento extremas?
O que acontece a seguir?
Deepseek R1 prova que a suposição está errada, com grandes consequências para a indústria.
O estrangulamento de Nvidia enfraquece
A NVIDIA prosperou porque a demanda de IA superou a oferta. Mas se os modelos se tornarem muito mais eficientes, então:
-
Demanda por gotas caras de GPUs
-
Alternativas (AMD, Huawei ascend, chips internos de IA) tornam-se viáveis
-
O prêmio da NVIDIA desaparece
Hoje, a NVIDIA controla 80%+ do mercado de chips de IA. Mas o Deepseek apenas demonstrou que a eficiência do modelo pode compensar as limitações de hardware e isso muda o equilíbrio de poder.
Isso não deve ser exagerado; Nvidia ainda é o OG … mas a fundação deles é mais instável hoje do que ontem.
O boom do Capex do Data Center é insustentável
Os gigantes da tecnologia estão a caminho de gastar mais de US $ 2 trilhões em infraestrutura de IA até 2030 (US $ 250 bilhões em 2025). Mas o sucesso de Deepseek levanta uma dura verdade: se a eficiência da IA continuar melhorando, a maior parte dessa infraestrutura pode se tornar obsoleta antes mesmo de ser construída.
No momento, as expansões do data center são baseadas em 2023 suposições sobre a escala do modelo. Mas:
-
Se os custos de treinamento caírem de US $ 100 milhões para milhões de dígitos, precisamos de expansões agressivas de cluster de GPU?
-
Se o MOE e as arquiteturas de computação de baixa precisão se tornarem padrão, o resfriamento líquido faz sentido?
Deepseek pode ter acabado de tirar o tapete de todo o boom do Data Center de AI.
A estrutura de custo da IA entra em colapso
No momento, a inferência da AI é cara.
Mas os avanços de Deepseek sugerem que poderíamos estar nos aproximando dos custos marginais de zero quase zero para a inferência da IA (indo contra a suposição anterior de que as margens se tornariam espremidas pelo custo das vendas).
-
Modelos de código aberto treinados usando os métodos da Deepseek inundarão o mercado
-
As empresas serão executadas modelos de IA localmente, em vez de pagar o OpenAi e Microsoft para acesso API
-
Os serviços de IA baseados em nuvem serão forçados a cortar preços-drasticamente
Isso significa que em breve a IA poderá ser incorporada em quase todos os dispositivos de consumo a zero custo – e isso tem grandes implicações para os modelos de negócios de IA.
A pergunta final: e se a IA não precisar mais de hipercalers?
Deepseek apenas reescreveu o manual econômico da IA.
E isso levanta a maior questão de todos:
O que acontece quando a IA não depende mais da infraestrutura de trilhões de dólares da Big Tech?
Durante anos, assumimos que o futuro da IA pertencia a HyperScalers – Microsoft, Openai, Google e Nvidia – porque apenas eles podiam pagar os custos de computação astronômicos.
Mas se as inovações da Deepseek continuarem, a IA poderá se afastar completamente das plataformas de nuvem centralizadas.
-
Um futuro em que toda empresa administra sua própria IA localmente – sem precisar de Openai ou AWS
-
Um mundo onde os custos de inferência estão próximos de zero, tornando os assistentes, copilotes e ferramentas movidos a IA
-
Um colapso na demanda por data centers de hiperescala, porque a IA eficiente não precisa deles
Como costuma ser o caso, quando essas perguntas são feitas, lembro -me de 2001. Havia muitos, muitos perdedores na bolha do Dotcom. Mas os vencedores são os gigantes que andam entre nós hoje … e são algumas das entidades econômicas mais poderosas que o mundo já viu. Não vejo razão para que isso não aconteça aqui novamente, pois a IA, assim como a Internet, claramente tem potencial transformador.
De fato, pode ser um positivo líquido de que as empresas estão gastando muito para construir uma infraestrutura de IA. A bolha dos pontocom era difícil, com certeza, mas a super-construção da época levou a um excesso de fibra que levou quase uma década para preencher. Barato. Os cadáveres de empresas fracassadas são os espacos do mundo digital que conhecemos hoje.
Nos últimos cinco anos, o progresso da IA foi medido por quantas GPUs você pode empilhar. Deepseek apenas provou que uma abordagem radicalmente diferente é possível.
A revolução da AI real não será sobre data centers maiores – será sobre IA mais inteligente. O modelo de negócios de hipercaler está em risco. Se os modelos se tornarem baratos e de código aberto, as plataformas de IA centralizadas terão dificuldades para justificar seus custos. Em vez de despejar bilhões em resfriamento líquido, devemos redesenhar os modelos de IA para usar menos energia em primeiro lugar.
Há muito tempo disse que o Capex do Data Center é insustentável no 2030. Talvez esse número tenha sido 2025 (mais ou menos – não vamos nos levar).
O futuro da IA pertence à eficiência-não à escala de força bruta.