Data centers de IA vazios no Vale do Silício sem energia para começar a operar
Infraestrutura avançada em cidade da Nvidia está pronta, mas falta eletricidade para atender à demanda. Empresas aguardam há dois anos por novas subestações
Santa Clara, Califórnia, cidade natal da Nvidia, empresa que se tornou sinônimo da revolução da inteligência artificial, enfrenta um paradoxo crítico: data centers modernos, construídos para abrigar a próxima geração de servidores, permanecem vazios e inoperantes. Este não é um problema de falta de interesse ou investimento, mas uma escassez de um recurso mais fundamental: energia elétrica. A demanda explosiva por computação de alta potência, impulsionada pelos modelos de IA generativa e pelo treinamento de sistemas cada vez mais complexos, colidiu com as limitações físicas da infraestrutura energética regional.
Projeções do setor indicam que a energia necessária para os data centers globais poderá duplicar até 2026, saltando de cerca de 460 Terawatt-hora (TWh) em 2022 para aproximadamente 1.000 TWh, um aumento que pressiona redes elétricas já sobrecarregadas.
O fenômeno em Santa Clara, no coração do Vale do Silício, é um microcosmo de um desafio global. A concentração de infraestrutura de cloud computing em hubs tecnológicos estabelecidos criou pontos de estrangulamento insustentáveis. A Pacific Gas & Electric (PG&E), concessionária que serve a região, tem enfrentado desafios para atender à demanda existente, muito menos acomodar os picos maciços exigidos por novas instalações de data centers, que podem consumir tanto quanto uma cidade de médio porte. O processo de aprovação para novas conexões de energia tornou-se um gargalo, com esperas que se estendem por anos. Esta crise de capacidade força uma reflexão urgente sobre a geografia do futuro da computação, sugerindo que a expansão da IA não será limitada pela criatividade dos algoritmos, mas pela disponibilidade de watts e volts.
Leia também:
- Inteligência Artificial e a preocupação com o alto consumo energético
- OpenAI precisa de US$ 400 bi em 12 meses para cumprir metas, mas crescimento estagnou
Diante deste impasse, o setor está sendo forçado a inovar rapidamente, não apenas em chips, mas em eficiência energética e localização. A busca por maior eficiência no PUE (Power Usage Effectiveness) tornou-se uma prioridade máxima. Empresas líderes como Google, Amazon e Microsoft estão investindo pesadamente em sistemas de refrigeração líquida avançada, que são significativamente mais eficientes do que os tradicionais sistemas a ar para lidar com o calor denso gerado pelos clusters de GPUs da Nvidia e de outros chips de IA. Paralelamente, há um movimento estratégico em direção a regiões com maior capacidade de geração de energia, muitas vezes renovável. Estados como Ohio, Iowa e Texas estão se tornando novos epicentros para a construção de hyperscalers, atraindo investimentos bilionários devido à espaço disponível para construção, incentivos fiscais e, crucialmente, acesso a redes elétricas robustas e com capacidade ociosa.
A energia nuclear está emergindo como uma solução potencialmente revolucionária para este dilema. Pequenos reatores modulares (SMRs) são vistos por muitos especialistas como a fonte de energia limpa, confiável e de alta densidade necessária para alimentar os campus de IA do futuro. Empresas estão explorando parcerias para instalar SMRs diretamente junto a grandes data centers, criando microgrids que independem da sobrecarregada infraestrutura pública. Além disso, a inovação em armazenamento de energia, por meio de baterias em escala de grid, e o desenvolvimento de geradores de reserva movidos a hidrogênio verde estão ganhando tração como formas de garantir a estabilidade e a sustentabilidade das operações. Estas soluções não são meros experimentos; são componentes essenciais de uma reestruturação fundamental de como e onde a infraestrutura digital do mundo será construída.
Impacto no mercado
As implicações econômicas e operacionais dessa crise de energia são profundas. A escassez de capacidade de data center em locais privilegiados como Santa Clara está inflacionando os custos de operação e criando uma nova barreira de entrada para startups de IA, que não possuem os recursos para travar uma batalha por energia ou para construir infraestrutura própria. Isso pode, a médio prazo, consolidar o poder das gigantes tech, que podem investir capital na construção de sua própria infraestrutura energética. O mercado de colocation — onde empresas alugam espaço em data centers de terceiros — está experimentando um boom, com preços subindo em mercados com restrições de energia. A valorização de empresas que detêm ativos de data center com conexões de energia garantidas tem superado significativamente a média do mercado.
As projeções para a indústria sugerem uma bifurcação. Enquanto os hubs de IA de elite continuarão a existir em centros de pesquisa, a massa de computação de treinamento e inferência migrará para onde a energia é abundante e mais barata. A consultoria McKinsey estima que os data centers poderão consumir até 8% da eletricidade dos EUA até 2030, ante aproximadamente 4% hoje. Esta projeção está acelerando investimentos maciços em modernização da rede elétrica nacional e em geração de energia, sinalizando que a trajetória de crescimento da IA está intrinsecamente ligada ao destino da infraestrutura energética. A próxima fase de expansão da inteligência artificial será, portanto, menos sobre software e mais sobre hardware e energia, redefinindo as prioridades estratégicas para toda a cadeia de valor tecnológica.
Migração para o Meio-Oeste e Sul
A crise energética em centros tradicionais como a Califórnia está catalisando uma reconfiguração radical do mapa de data centers dos EUA. Estados do Meio-Oeste e do Sul, como Texas, Ohio, Iowa e Tennessee, estão se posicionando agressivamente como os “novos vales do silício” da infraestrutura física da IA. Esta migração não é aleatória; é uma resposta calculada a vantagens estruturais críticas. O Texas, por exemplo, possui sua própria rede elétrica independente (ERCOT) e investiu pesadamente em energia eólica e solar, tornando-se um ímã para projetos que exigem gigawatts de capacidade. Da mesma forma, Ohio oferecem não apenas terrenos acessíveis e clima favorável para resfriamento, mas também proximidade com grandes centros populacionais do Leste e Meio-Oeste, reduzindo a latência para usuários finais.
Essa mudança geográfica representa uma transição fundamental no poder econômico do setor tecnológico. Governos estaduais estão oferecingo pacotes robustos de incentivos fiscais e acelerando drasticamente os processos de licenciamento para atrair os bilhões de dólares em investimentos. O que está em jogo vai além da construção de edifícios; é a criação de ecossistemas econômicos inteiros em torno desses hubs de dados. No entanto, este boom também expõe novas tensões. Comunidades locais em algumas dessas regiões começam a questionar o estresse que esses gigantescos consumidores de energia podem impor às redes locais e aos recursos hídricos, potencialmente replicando, em menor escala, os problemas que levaram à estagnação na Califórnia. A geopolítica interna dos data centers tornou-se um jogo de equilíbrio entre atrair investimentos de alto perfil e garantir a resiliência da infraestrutura energética local para todos os cidadãos.
Há ainda o aspecto dos benefícios econômicos para a comunidade local. Durante a construção, esses grandes complexos demandam muita mão de obra. Porém, depois de concluídos, os data centers modernos funcionam quase de forma autônoma, exigindo apenas um número reduzido de profissionais com habilidade muito específicas para sua manutenção, reduzindo a demanda por novos postos de trabalho.
O conflito Amazon vs PacificCorp
A tensão entre a demanda insaciável da cloud e a capacidade limitada das concessionárias de energia ganhou um exemplo recente e emblemático no estado do Oregon. A Amazon Web Services (AWS) entrou com uma petição junto aos reguladores estaduais alegando que a PacificCorp, sua fornecedora de energia, não está conseguindo entregar a eletricidade necessária para seus data centers na região. A AWS afirma que a concessionária não honrou seus compromissos contratuais, o que está impedindo a expansão e operação plena de suas instalações. Este caso vai ao cerne do problema: mesmo em regiões previamente consideradas com capacidade ociosa, o volume e a velocidade da demanda dos hyperscalers estão superando as projeções mais otimistas e a capacidade de resposta das concessionárias tradicionais.
Este impasse no Oregon serve como um alerta para todo o setor. Ele demonstra que a simples realocação para novas geografias não é uma solução infalível. As concessionárias, muitas vezes operando com infraestrutura envelhecida e planos de expansão conservadores, estão lutando para acompanhar o ritmo da revolução da IA. O caso também evidencia uma mudança na postura das gigantes de tecnologia, que estão recorrendo a medidas legais agressivas para proteger seus roadmap de crescimento. Este conflito provavelmente acelerará a tendência das empresas de tech buscarem maior autonomia energética, seja através de Parcerias Público-Privadas (PPPs) para modernização de subestações, da construção de suas próprias gerações de energia renovável, ou, como mencionado anteriormente, do investimento em microgrids com SMRs, tornando-se, efetivamente, suas próprias concessionárias de energia.
Com informações de bloomberg.com e datacenterdynamics.com