logo
Hefei Coolnet power Co., ltd
produtos
Notícias
Casa > Notícias >
Notícias da Empresa Os maiores equívocos sobre resfriamento líquido em data centers
Eventos
Contactos
Contactos: Janet Si
Contato agora
Envie-nos

Os maiores equívocos sobre resfriamento líquido em data centers

2025-09-08
Latest company news about Os maiores equívocos sobre resfriamento líquido em data centers

Entre os muitos sistemas críticos em um data center, as tecnologias de resfriamento estão evoluindo no ritmo mais rápido, exigem a curva de aprendizado mais acentuada e carregam os maiores riscos operacionais. Projetos de data centers em larga escala geralmente envolvem investimentos de bilhões, tornando quaisquer erros de projeto extremamente caros. Além disso, à medida que a demanda por data centers evolui rapidamente, a infraestrutura de TI enfrenta o risco de depreciação acelerada.


Desafios e Concepções Equivocadas Comuns no Resfriamento de Data Centers
Hoje, a densidade de calor por metro quadrado em um data center pode ser mais de 50 vezes maior do que em um espaço de escritório típico, com cargas de TI frequentemente excedendo 30 MW. Os sistemas de resfriamento são projetados para manter os equipamentos de TI dentro de faixas de temperatura ideais—como manter os clusters NVIDIA DGX H100 entre 5°C e 30°C. Desviar dessas faixas pode encurtar a vida útil dos equipamentos e, como servidores e hardware representam uma grande parte do Custo Total de Propriedade (TCO) de um data center, o resfriamento eficiente é crucial.


Atualmente, além dos próprios equipamentos de TI, o resfriamento se tornou a segunda maior despesa de capital em data centers, logo após os sistemas elétricos. À medida que as arquiteturas de resfriamento se diversificam e a eficiência energética se torna mais crítica, as soluções de resfriamento são agora um desafio central de projeto. Para provedores de serviços em nuvem, os custos de energia relacionados ao resfriamento são uma grande preocupação operacional, exigindo um cuidadoso equilíbrio em nível de sistema.


Mal-entendidos são comuns em relação aos impulsionadores por trás da adoção do resfriamento líquido e às tendências futuras para resfriamento em data centers de IA e treinamento. Alguns acreditam que o resfriamento líquido é sempre mais eficiente em termos de energia do que o resfriamento a ar, ou que o resfriamento a ar não pode lidar com chips com potências acima de 1000W. Outros pensam que servidores de baixa potência com resfriamento a ar são melhores para cenários de inferência. No entanto, a verdadeira força motriz por trás da adoção do resfriamento líquido é otimizar o TCO para o poder de computação de IA—não apenas economia de energia ou credenciais “mais verdes”.


O Verdadeiro Valor do Resfriamento Líquido: Densidade e Otimização do TCO
O resfriamento líquido não é novo—data centers na década de 1960 o usavam para resfriar mainframes IBM. No entanto, os data centers modernos têm favorecido o resfriamento a ar, graças ao seu custo inicial mais baixo e a uma cadeia de suprimentos madura. À medida que a escala do data center aumentou, a tecnologia de resfriamento a ar acompanhou, permitindo densidades de energia de rack cada vez maiores, mantendo a eficiência energética.


Mesmo hoje, o resfriamento a ar domina o espaço de IA. Por exemplo, o projeto de referência da NVIDIA para implantações H100 permite até quatro servidores resfriados a ar por rack, com um consumo total de energia de 41kW. Em muitos data centers, isso significa que os operadores costumam deixar metade de seus racks vazios para evitar o superaquecimento. Tecnologias como trocadores de calor de porta traseira e gabinetes de fluxo de ar fechados podem aumentar as densidades por rack acima de 50kW, mas o principal fator limitante é frequentemente o tamanho físico e os requisitos de resfriamento dos próprios servidores.


Embora o resfriamento líquido já tenha sido considerado caro, seu custo geral é relativamente modesto em comparação com o ciclo de vida dos equipamentos de TI. O verdadeiro valor reside em maximizar o desempenho de TI: o resfriamento líquido permite que mais GPUs e aceleradores de IA sejam densamente embalados e resfriados de forma eficiente, desbloqueando maior densidade de computação e maior colaboração entre os aceleradores.


Um exemplo principal é o sistema NVIDIA GB200 NVL72, que usa resfriamento líquido direto ao chip (DLC) para suportar 72 GPUs em um único rack de 120kW. Essa inovação permite um TCO significativamente menor para treinamento e inferência de modelos de linguagem grandes (LLM) e estabelece um novo padrão para data centers de alta densidade e alto desempenho.


Repensando a Economia do Resfriamento de Data Centers
Embora o resfriamento líquido possa reduzir os custos operacionais (economizando energia do ventilador do servidor—cerca de 70% do consumo de energia relacionado ao resfriamento), essas economias por si só não são suficientes para justificar uma mudança completa do resfriamento a ar para o líquido. O investimento inicial mais alto, o aumento da complexidade da manutenção e uma cadeia de suprimentos menos madura são todos fatores críticos. Embora o resfriamento líquido economize espaço físico, o espaço no chão raramente é o recurso mais caro em um data center—a maioria dos custos ainda está ligada à carga de TI.


A Física e a Implementação do Resfriamento Líquido
O resfriamento líquido é mais eficiente porque um determinado volume de líquido pode absorver aproximadamente 4.000 vezes mais calor do que o ar. No entanto, bombear líquido (que é ~830 vezes mais denso que o ar) requer mais energia, e a energia necessária é diretamente proporcional à taxa de fluxo. O resfriamento líquido direto ao chip pode aumentar drasticamente a densidade do rack, mas vem com desafios como tubulação, diâmetros de tubos maiores e a necessidade de materiais mais caros.


Em uma configuração típica, placas frias de cobre são fixadas aos componentes mais quentes (CPUs e GPUs), com água gelada circulando pelos coletores de distribuição em nível de rack. Outros componentes, como NICs e dispositivos de armazenamento, ainda dependem de ventiladores para resfriamento.


Geralmente, uma unidade de distribuição de resfriamento (CDU) gerencia o sistema, seja no nível da linha ou do rack. Embora implantações em larga escala geralmente usem CDUs em nível de linha para eficiência de custo e manutenção, as CDUs integradas em nível de rack estão se tornando mais populares para implantação rápida e responsabilidade clara do fornecedor. Em todos os casos, a CDU está localizada dentro do espaço em branco do data center.


Olhando para o futuro, embora o DLC de fase única esteja pronto para adoção em massa, a pesquisa em tecnologias de resfriamento de duas fases e imersão está em andamento (mais sobre resfriamento de próxima geração).


Escolhendo a Solução de Resfriamento Certa
À medida que as tecnologias de resfriamento de data centers se tornam cada vez mais sofisticadas, escolher a solução certa é vital para os operadores que buscam maximizar a densidade de computação, minimizando custos e riscos. Na Coolnet, oferecemos uma gama completa de soluções de resfriamento de data centers—do resfriamento a ar tradicional ao resfriamento líquido avançado—projetadas para atender às necessidades de cargas de trabalho de IA e nuvem de alta densidade.


Se você gostaria de saber mais sobre o que há de mais recente em design de data center modular ou ver como os data centers modulares pré-fabricados da Coolnet integram tecnologias avançadas de resfriamento, entre em contato conosco para uma consulta gratuita.


Referências:
Soluções de Data Center NVIDIA
China IDC Circle: Tendências de Resfriamento de Data Centers