谷歌 DeepMind 人工智能冷却系统:人工智能如何革新数据中心能效
谷歌 DeepMind 通过 5 层深度学习、50 个节点、19 个输入变量,在 184,435 个训练样本(2 年数据)上实现了数据中心冷却能耗-40%(但总能耗仅-4%,因为冷却能耗占总能耗的 10%)、准确率 99.6%、PUE 1.1 误差 0.4%。在 3 个设施中得到证实:新加坡(2016 年首次部署)、Eemshaven、Council Bluffs(投资 50 亿美元)。通过同时管理 IT 负载、天气和设备状态,模型预测控制可预测下一小时的温度/压力。安全性保证:两级验证,操作员可随时禁用人工智能。关键限制:审计公司/国家实验室的独立验证为零,每个数据中心都需要定制模型(8 年来从未商业化)。实施时间为 6-18 个月,需要多学科团队(数据科学、暖通空调、设施管理)。适用范围超出数据中心:工业厂房、医院、购物中心、企业办公室。2024-2025 年:谷歌将 TPU v5p 过渡到直接液体冷却,表明人工智能优化的实际限制。