人工智能(AI)和数据中心对电力日益增长的需求成为美国能源部门关注的焦点,制造业、电动汽车等行业的耗电需求上升之际,人工智能行业的快速发展加速了美国电力危机的到来。
亚历克斯·德弗里斯在他的论文中,为对话机器人ChatGPT算了这样一笔账:每当ChatGPT试图响应一次问题,它需要消耗2.9瓦时的电量。 ChatGPT每天需要消耗掉1.7万个美国家庭一天的用电量。
大模型的训练和推理过程均需消耗大量电力。相比于平常安装在笔记本电脑上的CPU(中央处理器),GPU(图形处理器)被证明是更适合AI训练的硬件。由于模型参数、能耗处理等因素差异,不同AI模型的耗电量无法被准确估算。在多模态大模型发展成为主流的情况下,在AI响应需求的推理过程中,耗电量还将进一步提升。
谷歌试图在搜索中结合AI功能,但它的能耗十分惊人。去年2月,谷歌母公司Alphabet董事长John Hennessy表示,在搜索中应用人工智能的成本将是普通搜索的10倍。
和Open AI合作密切的微软,也计划把AI大力“塞进”它的几个主要产品线,如Office软件、Windows操作系统、Bing搜索引擎、Azure云服务等。
数据中心的建造已被科技企业们纳入下一步规划。2023年,谷歌斥资超25亿美元,分别在俄亥俄州、爱荷华州、亚利桑那州梅萨建造数据中心。看好AI发展的亚马逊计划在未来15年中投入1500亿美元兴建数据中心。
电力危机已近在眼前。在不久的将来,它还可能成为制约AI发展的关键因素。
伴随着快速增长的人工智能能耗,科技企业们开始局限。海外监管机构开始推动立法,要求人工智能开发企业披露能源的使用情况,以合理估算AI带来的能耗影响。
通过技术优化性能,也能显著降低能耗。在今年的GTC发布会上,英伟达CEO黄仁勋带来了一款新的GPU产品Blackwell。通过使用新的架构,它的能耗降低了70%以上。
在化石能源枯竭的危机下,对新能源的利用,不仅能缓解迫近人工智能行业的能源危机,也承载着人类科技继续前行的“动力与文明”。
人工智能的快速发展和广泛应用,惊人的能源消耗成为了当前的一大问题。巨头们跨足AI领域,用越来越高的能耗满足需求,引起了能源消耗的忧虑。钳制有望解决AI能耗过高的困境。
足够的电力供应对于人工智能的长远发展至关重要,能源领域的快速发展,将会为AI行业带来更多的可能性和生机。随着时间的推移,新的技术将会出现,其能耗与性能的平衡将会成为人工智能行业亟待解决的问题。人工智能产业发展的瓶颈将通过钳制和技术持续革新所打破。
鼓励读者在评论区留言,分享你的想法和观点。
感谢阅读!
图片引用: