A inteligência artificial vive um momento de explosão mundial, mas enfrenta agora um gargalo preocupante: a falta de chips de memória essenciais para treinar modelos e operar data centers. Estoques globais de DRAM caíram drasticamente, e fabricantes não conseguem atender à demanda crescente. O problema ameaça projetos bilionários, pressiona grandes empresas de tecnologia e pode desacelerar o avanço da IA em escala global.
Segundo análises de mercado, os estoques de DRAM — utilizada em celulares, notebooks, servidores e sistemas de IA — despencaram de cerca de 17 semanas para apenas duas semanas entre outubro e dezembro. A corrida de empresas como Microsoft, Google, Nvidia e ByteDance por contratos antecipados agravou a disputa por componentes, levando varejistas a limitar compras e fornecedores a anunciar reajustes de preço.
A crise também afeta a métrica mais valiosa da IA moderna: a high-bandwidth memory (HBM), usada em chips de alto desempenho presentes em servidores, data centers e GPUs avançadas.
Por que está faltando memória? O desequilíbrio começa na própria expansão da IA
A atual escassez é reflexo direto do redirecionamento da indústria. Para atender à explosão da demanda por chips de alto desempenho, fabricantes reduziram a produção de memórias tradicionais — interrompendo o equilíbrio de toda a cadeia digital.
Três fatores explicam o colapso:
- Foco total na produção de chips para IA, deixando segmentos como DRAM e flash com menor volume.
- Prazos longos de fabricação, que impedem resposta rápida à alta repentina.
- Medo de superoferta, já que o setor de semicondutores é historicamente volátil.
O resultado é um estrangulamento que atinge desde celulares até supercomputadores.
Impacto macroeconômico: atraso na produtividade e risco para trilhões em investimentos
Economistas afirmam que a falta de chips de memória é hoje um dos maiores riscos macroeconômicos da tecnologia. Sem componentes suficientes, os ganhos esperados da IA podem atrasar, e planos globais de expansão digital — avaliados em trilhões de dólares — ficam comprometidos.
Estimativas recentes apontam que:
- A demanda de energia de data centers deve crescer até 165% até 2030.
- 27% desse consumo será dedicado exclusivamente a cargas de IA.
- Até US$ 6,7 trilhões terão de ser investidos em infraestrutura de data centers, sendo US$ 5,2 trilhões apenas para aplicações de IA.
No entanto, com falta de memória, parte dessa expansão simplesmente não acontece.
O cenário mais crítico: a batalha pela memória DRAM e HBM
Hoje, a memória é o elo mais frágil da cadeia da inteligência artificial. DRAM e HBM estão no centro de um mercado que já opera no limite. Mesmo com a demanda disparando, fabricantes como Samsung, SK Hynix e Micron hesitam em ampliar a produção — temendo repetir crises de superoferta do passado.
Enquanto isso, grandes empresas de IA têm firmado acordos financeiros considerados “circulares” entre gigantes como Nvidia, OpenAI, Oracle e outras. Na prática, essas parcerias criam um ecossistema fechado em que os mesmos grupos investem uns nos outros. Analistas apontam que isso pode inflar artificialmente o valor do mercado e concentrar ainda mais a produção de chips e memórias em poucas mãos.
Atualmente, 60% de todo o investimento previsto em IA até 2030 será destinado a hardware, aumentando o risco de falta crônica de componentes.
A infraestrutura energética é o próximo gargalo — e já atrasa projetos
Mesmo se a produção de memória e chips se estabilizar, a expansão da IA depende de um elemento ainda mais crítico: energia elétrica.
Os data centers consomem hoje cerca de 55 GW. Em apenas três anos, a demanda pode saltar para 84 GW, com os sistemas de IA utilizando mais de um quarto do total.
Para acompanhar esse ritmo, o mundo precisará investir:
- US$ 720 bilhões em redes elétricas até 2030,
- e até US$ 7,9 trilhões para fornecer energia adicional e infraestrutura de resfriamento.
Sem esses investimentos, o setor de IA sofrerá apagões de capacidade — tornando memórias, chips e data centers inutilizáveis.