跳转到主要内容

教科文组织新报告: 调整人工智能大语言模型可降低90%能耗

位于数据中心的服务器机架。
Unsplash/Kevin Ache
位于数据中心的服务器机架。
联合国教科文组织与伦敦大学学院联合发布的最新研究表明,通过对大语言模型的构建和使用方式进行微调,可在不影响性能的前提下显著降低能耗。该报告主张摒弃资源密集型人工智能模型,转向更精简的模型架构。综合应用这些措施,能耗最高可减少90%。

推动人工智能更高效、更可持续的发展

教科文组织肩负着支持194个会员国数字化转型的使命,为其制定高能效、符合伦理且可持续的人工智能政策提供专业指导。

2021年,该组织会员国一致通过了《人工智能伦理问题建议书》,这一治理框架特别包含针对人工智能对环境和生态系统影响的政策导向章节。

这份名为《更智能、更精简、更强大:资源高效型人工智能与数字化转型的未来》的报告呼吁各国政府及企业加大对可持续人工智能研发的投入,同时提升公众人工智能素养,让使用者更清楚地认识人工智能应用对环境的影响,从而做出更明智的选择。

降低人工智能环境影响的可行高效方案

报告指出,目前,全球每天有超过10亿人使用生成式人工智能工具。每次互动都会消耗能源——平均每个提示约0.34瓦时。这些能耗累积起来,每年高达310吉瓦时,相当于一个非洲低收入国家300多万人全年的用电量。

在该报告中,伦敦大学学院的计算机科学家团队针对多种开源大语言模型开展了一系列原创实验,发现了三种能在保证结果准确性的同时大幅节能的创新方案:

小模型同样精准高效:针对特定任务优化的小型模型可降低高达90%的能耗。当前用户普遍依赖大型通用模型处理所有需求,但研究表明,采用专为翻译、摘要等特定任务定制的小型模型,能在保持性能的同时显著减少能耗。这种“量体裁衣”的模型匹配策略,比使用单一大型全能系统更智能、更具成本与资源效益。

精简输入输出,节能超50%:优化提示词长度并精简人工智能回复内容,可使能耗降低逾五成。

模型压缩技术节省44%能耗:通过量化等技术压缩模型体积,能在保持精度的同时显著降低能耗。

小型模型更具普惠价值

报告表示,当前全球人工智能基础设施高度集中于高收入国家,加剧了数字鸿沟与全球不平等。

国际电联数据显示,非洲仅5%的人工智能人才能够获取构建或使用生成式人工智能所需的算力资源。

报告研究的三大技术对资源匮乏地区尤为重要,这些区域往往面临能源与水资源短缺的双重挑战;在网络条件受限的低资源环境中,小型模型具有显著的适用优势。