AI耗能——人工智能发展的现实制约 -新华网
新华网 > > 正文
2024 10/29 11:22:12
来源:中国国防报

AI耗能——人工智能发展的现实制约

字体:

  位于美国爱荷华州的微软公司的数据中心。

  “人工智能的尽头是算力,算力的尽头是电力。”近年来,人类在享受人工智能技术迅速发展带来的科技红利时,庞大的耗电量也让全球电力供应亮起了红灯。

  在数据智能时代,数据和算力是驱动人工智能技术飞速发展的两大引擎,其背后是对电力的巨量消耗和过度依赖。换句话说,人工智能的崛起正在引发一场前所未有的“电力风暴”,给全球能源供给提出新挑战。以美国科技公司为代表的人工智能企业,将目光投向了核能。

  人工智能能耗问题突出

  据国际能源署发布的报告,随着全球对互联网服务和人工智能的需求持续增长,支持其运行的全球各个数据中心的耗电量正在逐年攀升,预计将在4年内翻一番。2022年全球各个数据中心的总耗电量接近460太瓦时(1太瓦时等于10亿千瓦时,即10亿度电),预计到2026年,这一数据将超过1000太瓦时,相当于2022年日本国内的全年用电量。

  人工智能技术的大规模应用,是全球数据中心耗电量激增的主要原因。尤其是生成式人工智能的爆发式应用,进一步加剧了电力消耗。以大型语言模型GPT-3为例,其训练一次所需电量高达1287兆瓦时(1兆瓦时等于1000千瓦时,即1000度电),相当于3000辆电动汽车绕赤道行驶8圈所耗电量的总和。另据《纽约客》杂志报道,聊天机器人模型ChatGPT平均一天响应大约2亿个请求,耗电量超过50万度,相当于一个普通家庭日均用电量的1.7万倍。今后,随着预训练算法的复杂程度不断升级,大数据模型参数将成倍增长,整个人工智能行业的能源消耗量也将不断攀升。预计到2027年,整个人工智能行业每年的耗电量将达85至134太瓦时,相当于一座大型水电站一年的发电总量。

  正因如此,有人形象地称人工智能正在“吸干”全球电力。在今年2月举办的“博世物联网2024”大会上,有与会者指出:“下一个短缺的将是电力!”从数据中心到日常应用,在人工智能飞速发展的背后,能源消耗问题日益凸显,成为业内关注的焦点。

  软硬件升级降低能耗

  目前,人工智能的技术发展路线是不断增加模型参数、叠加芯片。如果按照这一思路继续发展,人工智能的能耗问题将愈加突出。

  如何打破人工智能耗能枷锁?技术革新和能源结构优化是关键的破局点。其中,通过技术创新和合理的能源管理策略,有望走出新的人工智能发展路径。

  例如,人工智能的能耗与算法体量成正相关关系,通过优化人工智能算法和使用更高效的机器学习框架,减少冗余计算和模型参数,提高计算效率,达到降低能耗目的。根据预测,到2027年谷歌数据中心通过人工智能系统优化方式,预计将减少约15%至30%的耗电量。

  硬件设施升级也能有效减少能耗。包括采用更高效的硬件设备,如专用人工智能芯片和能效更高的服务器等,提高计算效率,缩短计算时长,减少热量释放。例如,美国一家半导体公司推出一种芯片技术,可以实现数据存储和处理的无缝结合,能显著提升芯片性能,降低能耗。另外,还可以通过采用先进的冷却系统和智能电网等,改进数据中心的能源管理方案,提高能源利用效率,最终达到降低能耗的目的。

  核能为解决问题带来希望

  除了提升算力、降低能耗外,科技公司还寻求发展新的能源。其中,核电作为一种稳定、无碳的电力来源,成为科技公司寻求能源解决方案的重点。

  据外媒报道,日前美国微软公司与星座能源公司达成协议,购买了星座能源公司三里岛核电站未来20年的电能,用于为该公司的数据中心供电。另外,一些人工智能公司相继投资核电。美国开源人工智能公司(OpenAI)创始人投资的核能初创公司,计划2027年在爱达荷国家实验室建造第一座小型模块核反应堆,“解决人工智能带来的极端能源需求”。

  毫无疑问,人工智能技术的发展为人类社会带来了巨大变化。同时,如何应对巨大的能源消耗,是数据智能时代需要持续关注的重要课题。在这样的背景下,前沿技术的突破和新能源的开发利用,是破解人工智能能耗困局的方案之一。(路阔)

【纠错】 【责任编辑:王金志】