Back to Headlines

微软携手IBM技术推微流体冷却,助力高效强算力芯片

4 天前

微软在芯片冷却技术上取得重要突破,推出一种名为微流体冷却(microfluidics)的新方法,有望显著提升数据中心的能效与算力密度。该技术通过在芯片背面蚀刻出微米级通道,让冷却液直接流经芯片表面,实现高效散热。据实验室测试,其散热效率最高可达传统冷板技术的三倍,并使GPU最高温度下降65%,为高功耗AI芯片的持续运行提供了新可能。 传统数据中心主要依赖空气冷却或冷板系统,但随着AI模型训练对GPU等芯片算力需求激增,散热瓶颈日益凸显。空气导热性能仅为水的1/23,而冷板虽有改进,仍需多层材料隔离芯片与冷却液,导致热量滞留。微流体冷却则跳过这些中间层,将冷却液直接输送到芯片核心,大幅降低冷却液所需温度,从而节省能源。 微软与瑞士初创公司Corintis合作开发该技术,利用AI优化冷却通道布局,模仿树叶脉络等自然结构,实现对热点区域的精准冷却。这不仅提升了散热效率,还支持芯片在不超温前提下更长时间超频运行,减少对备用服务器的需求,降低硬件部署与能耗成本。此外,该技术为3D堆叠芯片架构提供了可能——未来芯片可垂直堆叠计算、缓存与内存模块,而微流体通道能贯穿各层,实现高效散热,突破现有物理限制。 尽管前景广阔,该技术仍面临挑战:如何在芯片制造流程中高效蚀刻微通道、确保结构可靠性、以及建立完整的供应链。微软目前尚未公布商业化时间表,但已表示希望推动行业向更高效、可持续的下一代芯片发展。 值得注意的是,微流体冷却并非全新概念。早在2008年,IBM就已在3D芯片堆叠中实验嵌入式水冷技术,并于2013年参与美国国防高级研究计划局(DARPA)的ICECool项目。如今,包括Meta、Georgia Tech、Binghamton大学等机构也在持续研究该领域。微软的进展,结合AI驱动的冷却设计工具Glacierware,标志着微流体冷却正从实验室走向实际应用。 尽管更高效的冷却可能引发“杰文斯悖论”——即技术越高效,使用越广泛,反而可能推高整体能耗——但其在提升单位算力能效、减少碳足迹方面的潜力,仍使其成为支撑未来AI基础设施的关键技术之一。

Related Links