研究人员找到了降低AI模型训练某个步骤计算需求的方法,帮助机器人操控简单几何物体。你可能觉得这没什么大不了的。
然而,由于人们对AI应用数据中心供电成本不断上升的担忧,这一小小的、基本上并不起眼的发现却引发了诸如"功耗降低100倍:可能解决AI巨大能源危机的突破"等令人兴奋的新闻标题。
没有人质疑研究人员的发现,但相关报道可能有些夸大其词。Gartner副总裁分析师Nader Henein表示:"从arXiv研究到相关新闻文章结论的跨越完全是神话。这正是Gartner警告客户避免的炒作类型。"
来自美国塔夫茨大学人机交互实验室和奥地利维也纳视觉、自动化与控制中心的研究人员,比较了视觉-语言-动作(VLA)模型与使用基于PDDL符号规划的神经符号架构的训练成本和性能。他们在论文《价格不合理:神经符号方法在结构化长期操控任务中胜过VLA,且能耗显著更低》中报告了结果。该论文已被IEEE国际机器人与自动化会议接受。
咨询公司Acceligence的首席信息官Yuri Goryunov也质疑该研究的节能发现是否适用于企业中更广泛的问题。
Goryunov说:"'功耗降低100倍'的标题具有误导性。研究人员实际展示的是基于规则的系统在单一难题上比神经模型消耗更少能量。而且这是在仿真中进行的,规则是专家提前手工编码的。这不是突破,这就像计算器在算术上击败超级计算机。"
Goryunov认为:"一旦遇到现实世界的复杂性,节能效果就消失了。不同的数据源和混乱的输入、没有明确规则集的模糊情况,或者任何规则尚不明显的领域。而且仍然需要有人编写所有这些规则。"
研究人员没有回应评论请求,但他们可能不会不同意Goryunov的观点。在结论中,他们表示:"这些结果突出了端到端基础模型方法与结构化推理架构之间的重要权衡。对于受明确程序约束支配的操控任务,融入符号结构可以在可靠性、数据效率和能耗方面产生实质性优势。"
Goryunov说,讨论的一些假设性AI新方法确实具有潜力,特别提到了谷歌的研究工作。"谷歌的方法是让我们已经运行的AI变得更便宜、更快速。塔夫茨的方法是用架构上不同的东西替代它,用于一类狭窄的任务。从企业角度来看,毫无疑问。你可以明天就通过现有模型提供商部署谷歌的发现。塔夫茨要求你重写架构,手工编码领域规则,并希望你的问题看起来像个谜题。"
爱尔兰咨询公司Version 1的数据和AI主管Nathan Marlor表示,尽管塔夫茨的研究可能不能立即应用于企业IT部署,但可能会影响与超大规模云服务商的定价谈判。
Marlor说:"对于企业IT来说,这里没什么可做的。没人在内部构建PDDL规划器。但如果你正在关注AI计算账单攀升,而供应商一直告诉你答案是更多GPU,那么成本角度很重要。这是推回这种说法的又一个理由。如果混合架构得到更广泛验证,它会作为更便宜的推理和更低的云账单出现在下游。但这需要平台和超大规模云服务商去解决,而不是企业IT团队。"
另一位顾问、FormerGov执行董事Brian Levine同意塔夫茨报告可能会影响IT如何看待未来AI定价。
Levine说,企业IT高管"绝对应该关注这个领域,不是因为他们下个季度就会部署这些模型,而是因为AI的经济性变得更加不稳定。企业需要与AI供应商保持灵活性。这个市场可以瞬息万变。当像这样的突破开始商业化时,锁定单一超大规模云服务商的技术栈或单一模型架构会让人后悔。"Levine建议保持灵活性,避免长期承诺。"这是避免过度承诺任何一个供应商路线图的理由。AI基础的变化比大多数采购周期更快。赢家将是那些为可移植性而构建、为灵活性而谈判,并假设今天的先进技术可能比任何人预期的都更快过时的CIO和组织。"
Q&A
Q1:塔夫茨大学的AI节能研究究竟发现了什么?
A:塔夫茨大学研究人员发现,在帮助机器人操控简单几何物体的训练中,使用基于规则的神经符号架构比视觉-语言-动作模型消耗更少能量。但这只是在仿真环境中针对单一难题的测试结果。
Q2:为什么分析师说"功耗降低100倍"的标题具有误导性?
A:因为这个发现只适用于专家预先手工编码规则的特定场景,就像计算器在算术上击败超级计算机一样。一旦面对现实世界的复杂性、不同数据源和模糊情况,这种节能效果就会消失。
Q3:这项研究对企业IT有什么实际意义?
A:短期内对企业IT部署没有直接影响,但可能影响与云服务商的定价谈判。专家建议企业保持技术栈的灵活性,避免锁定单一供应商,因为AI技术发展速度很快,今天的先进技术可能很快就会过时。