在当今的商业环境中,企业普遍认为,人工智能模型的运算需求极为庞大,因此他们必须寻求更多的计算能力。但 Hugging Face 的 AI 与气候负责人 Sasha Luccioni 认为,企业可以通过更聪明的方式使用 AI,来提高模型的性能和准确性,而不是一味追求更高的计算资源。

Luccioni 指出,企业在使用 AI 时常常选择大型通用模型,然而实际上,针对特定任务的精简模型可以在精确度和成本上超过这些大型模型,并且能显著降低能耗。她的研究显示,任务特定模型的能耗比通用模型低20到30倍。

其次,企业应当将效率作为默认选项。通过运用 “推力理论”,可以在系统设计中引导用户行为,减少不必要的计算消耗。例如,企业可以限制默认开启高成本的计算模式,鼓励用户选择最适合的计算方式。

另外,硬件利用率的优化也非常重要。企业应当考虑使用批处理、调整计算精度及优化批次大小,以减少资源浪费。通过对硬件的细致调节,企业可以大幅提升计算效率。

为鼓励能源透明度,Hugging Face 还推出了 AI 能效评分机制,这一评分系统对模型的能耗效率进行评估,促使开发者关注能效问题。

Luccioni 建议企业反思 “更多计算就更好” 的传统思维。与其追求大型 GPU 集群,不如从如何聪明地达成结果出发,利用更优的架构和数据管理来提升性能。

划重点:

🌟 选择针对特定任务的模型比使用大型通用模型更具成本效益,能显著降低能耗。

🔍 将效率设为默认选项,通过推力理论减少不必要的计算开销。

⚙️ 优化硬件利用率和能效评分,提升计算效率,促进可持续 AI 系统的发展。