视频生成工具Sora发布以来
人工智能界“火花”四溅
AI用电用能焦虑
导致“储能与AI”故事持续发酵
如何优化算力技术发展“绿色AI”?
湖北企业开始了降耗探索
一起来看
AI到底有多耗电?
AI大模型带来巨大变革的同时,也意外地成为能源消耗大户。
据国外研究机构的报告,ChatGPT每天要响应大约2亿个请求,在此过程中消耗超过50万度电力(相当于一天花费7.35万美元)。
这一数据是荷兰国家银行数据科学家亚历克斯·德弗里斯通过英伟达、OpenAI、谷歌等公开数据进行的估算,他还预计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。
而在武汉人工智能计算中心,我们也找到了AI“吃电”的源头。
湖北科投武汉人工智能计算中心、武汉超算中心运营经理蔡维康告诉长江云新闻记者:“公司每个月电费大概是四十多万元,具体来说就是我们计算芯片的支出。能耗量占整个日常中心耗能量,接近80%的电费。”
如何解决AI高耗能问题?
随着AI的进步、模型的增大,如何解决伴生而来的高耗能问题?湖北企业率先向科技创新要“能源”。
推出国内首款显卡 能耗降低超30%
在湖北,芯片设计企业芯动科技早在十多年前,就开始了显卡降耗的尝试。他们用并行计算、用分布式计算架构,来优化算法降低能耗。此外,他们还对功耗进行了精细管理,在功耗要求不高的一些模块,尽量把功耗降下来。
目前,芯动科技已经率先推出了国内首款4K级服务器显卡和四屏桌面显卡,功耗降低比率超过30%。这两款芯片已经广泛用于教育、医疗、能源等领域。
眼下,企业正在研发第三代AI大模型计算芯片。“高性能,低功耗。在第三季度到第四季度,我们的产品应该能够推出来,比竞争对手在功耗上面要有30%的优势。”芯动科技联合创始人敖钢说。
研制出全液冷整机柜 机房散热更省电
由于算力设备的冷却需求,AI的耗电耗能也让人惊叹。
传统的数据中心,往往用风扇、空调等风冷方式给机房降温,所用的电力,占到总能耗的三分之一。如何将这些用电降下来?
在湖北,服务器整机制造龙头企业长江计算加速探索液冷技术。目前,该企业依托这一技术研制出了全液冷整机柜产品,让机房散热更省电。
“通过液体在冷板里面的流动,带走运行中的热量,然后再在外面的循环系统里完成热交换,比传统的数据中心的能耗能降低20%左右。”武汉长江计算科技有限公司总经理彭海波介绍道。
目前,长江计算全液冷整机柜已应用于武汉人工智能计算中心和武汉超算中心。眼下,湖北正加速在全省数据中心推广液冷降温技术,并重点对全省60个散热用电量超过计算用电量40%的中型数据中心和分散小型数据中心,进行整合和低碳改造。
还有哪些“破局”思路可借鉴?
面对AI能耗之困,首先在于开源。风能、光伏等可再生新能源被视作数据中心重要的能量池,核能也被寄予厚望。还要注重绿色算力发展,即绿色能源驱动的算力生产、供给、服务等的全过程,涉及底层设施算力资源、管理平台和应用服务等多个层面的节能减排。
另外,可以通过训练、计算技巧,算法和模型优化等,提高人工智能算力,实现节流。
来源:长江云