破局算力浪费 阿里云AI成果入选顶会 GPU用量削减82%
创始人
2025-10-19 01:22:17
0

《科创板日报》10月18日讯(编辑 宋子乔)近日,阿里云提出的计算池化解决方案“Aegaeon”成功入选顶级学术会议SOSP 2025,该方案可解决AI模型服务中普遍存在的GPU资源浪费问题,大幅提升GPU资源利用率,目前其核心技术已应用在阿里云百炼平台

SOSP(操作系统原理研讨会)由ACM SIGOPS主办,是计算机系统领域顶级学术会议,平均每年收录的论文数量仅有数十篇,被誉为计算机操作系统界的“奥斯卡”,入选论文代表了操作系统和软件领域最具代表的研究成果。本届SOSP大会上,系统软件与AI大模型技术的融合成为新的趋势。

数据显示,在阿里云模型市场为期超三个月的Beta测试中,Aegaeon系统在服务数十个参数量高达720亿的大模型时,所需的英伟达H20 GPU数量从1192个减至213个,削减比例高达82%(见下图)。GPU用量削减82%意味着公司硬件采购成本将显著降低,这对于动辄使用成千上万张GPU的大型模型服务商至关重要。

在真实的模型服务场景中,少数热门模型(如阿里的Qwen)承载了绝大多数用户请求,而大量不常被调用的“长尾”模型却各自独占着GPU资源。数据显示,在阿里云模型市场中,曾有17.7%的GPU算力仅用于处理1.35%的请求,资源闲置严重。

而Aegaeon系统通过GPU资源池化,打破了“一个模型绑定一个GPU”的低效模式。

Token级调度是该系统的核心创新点,Aegaeon多模型混合服务系统在每次生成下一个token后动态决定是否切换模型,实现精细化管理,同时,通过组件复用、显存精细化管理和KV缓存同步优化等全栈技术,Aegaeon将模型切换开销降低97%,确保了token级调度的实时性,可支持亚秒级的模型切换响应。

据介绍,Aegaeon系统支持单GPU同时服务多达7个不同模型,相比现有主流方案提升1.5-9倍的有效吞吐量,实现2-2.5倍的请求处理能力。

如何从底层系统软件层面优化,以更好地支撑和赋能上层AI应用,已成为全球学术界和工业界关注的焦点。未来AI的发展将不仅依赖于硬件算力的单纯增长,更需要通过系统级的软件创新来深度挖掘现有硬件的潜力

(科创板日报 宋子乔)

相关内容

热门资讯

103岁杨振宁逝世,一个世纪的... 能和杨振宁生活在同一时代,是我们这代人的幸运。作者:牧龙闲人来源:最华人2025年10月18日,物理...
调整去毛刺机器人防护服松紧度的... 调整去毛刺机器人防护服松紧度的细节与步骤 在工业生产过程中,去毛刺机器人扮演着重要的角色,它们能够自...
《纽约时报》讣告丨诺贝尔奖得主... Chen Ning Yang, Nobel-Winning Physicist, Is Dead a...
300多个APP,想让我和AI... 「核心提示」 赛博恋人、虚拟伙伴,如何用AI填补当代人的情感空间?在商业模式跑通之前,隐私安全...
那年校刊上的《忆江南》,依然在... 1955年的上海梧桐在黄浦江畔茁壮成长新中国百业待兴的春天这一年交通大学从上海内迁至陕西西安这是10...
海油工程公布“一种缓冲稳流装置... 天眼查APP显示,近日,海洋石油工程股份有限公司申请的“一种缓冲稳流装置及三腔室分离器”专利公布。 ...
涉事夫妻双方均拥有高学历,官方... 10月16日有网友爆料称在四川雅安石棉县某高速服务区看到一个家庭带着一个“野人孩子”孩子一丝不挂趴在...
原创 时... 最近齿科圈有个事儿挺值得说的,清锋科技(LuxCreo)刚完成新一轮融资,投资方不是别人,正是港股上...
重磅规定即将出台,“无堂食”商... 点外卖已经成为许多人日常生活的一部分但食品安全问题也是很多人担心的问题此前东方网记者根据骑手发布的线...
采埃孚汽车系统武汉新工厂在武汉... 10月18日,采埃孚制动系统武汉新工厂在武汉经开区正式投产,这座融合智能与绿色基因的现代化工厂,不仅...