近日,Meta 的 FAIR 团队与佐治亚理工学院合作开发了 CATransformers 框架,旨在将碳排放作为 AI 系统设计的核心考量。这一新框架通过联合优化模型架构和硬件性能,显著降低了 AI 技术的总碳足迹,为实现可持续的 AI 发展迈出了重要的一步。
随着机器学习技术的迅速普及,从推荐系统到自动驾驶等多个领域的应用不断增加,但其带来的环境代价同样不容忽视。许多 AI 系统需要大量的计算资源,往往依赖于定制的硬件加速器进行运算。在训练和推理阶段,所需的高能耗直接导致了运营中的碳排放大幅上升。此外,硬件在生产到报废的整个生命周期中同样会产生隐含碳,进一步加重了生态负担。
现有的减排方法大多集中在提升运营效率,比如通过优化训练和推理的能耗,或是提高硬件的利用率。然而,这些方法往往忽略了硬件设计和制造阶段所产生的碳排放,未能有效整合模型设计与硬件效率之间的相互影响。
CATransformers 框架的推出恰好填补了这一空白。通过多目标贝叶斯优化引擎,该框架能够联合评估模型架构与硬件加速器的性能,旨在平衡延迟、能耗、精度和总碳足迹。特别是在边缘推理设备方面,CATransformers 通过剪枝大型 CLIP 模型生成变体,并结合硬件估算工具来分析碳排放与性能之间的关系。
研究显示,CATransformers 的成果 CarbonCLIP-S 与 TinyCLIP-39M 在精度上相当,但碳排放却减少了17%,且延迟控制在15毫秒以内。此外,CarbonCLIP-XS 则在比 TinyCLIP-8M 的精度提升8% 的同时,碳排放也降低了3%,延迟低于10毫秒。
值得注意的是,单纯优化延迟的设计可能会导致隐含碳增加高达2.4倍,而综合优化碳排放与延迟的策略能够实现19-20% 的总排放削减,同时延迟损失极小。CATransformers 通过嵌入环境指标,为可持续机器学习系统的设计奠定了基础。随着 AI 技术的持续扩大,该框架为行业提供了切实可行的减排路径。
划重点:
🌱 Meta 与佐治亚理工学院合作开发 CATransformers 框架,重点关注 AI 系统的碳排放问题。
💡 CATransformers 通过优化模型架构与硬件性能,显著降低 AI 技术的碳足迹。
⚡ 研究成果表明,综合优化碳排放与延迟策略可实现19-20% 的总排放削减。