首页 > 新闻 > 科技

分享到微信

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

降低传统路径依赖,华为推出AI推理新技术

第一财经 2025-08-12 20:41:02 听新闻

作者:李娜     责编:彭海斌

系统级的推理架构优化不是单点技术的突破,要从整个芯片、软件等方面协同创新。

8月12日,华为在一场会议中对外推出AI推理新技术UCM(推理记忆数据管理器,Unified Cache Manager),这是一款以KV Cache和记忆管理为中心的推理加速套件,通过推理框架、算力、存储三层协同,优化Tokens在各业务环节中流转的效率,以降低每Token的推理成本。

华为公司副总裁、数据存储产品线总裁周跃峰在演讲中表示,AI时代,模型训练、推理效率与体验的量纲都以Token数为表征,Token经济已经到来。“但在一定时间内推理的Token数上,中国头部互联网公司与海外头部互联网公司仍有差距。”

根据华为会上公布的数据,国外主流模型的单用户输出速度已进入200 Tokens/s区间(时延5ms),而我国普遍小于60Tokens/s(时延50 - 100ms),因此,如何解决推理效率与用户体验的难题迫在眉睫。目前,包括华为在内,各大科技企业都会在调度KV Cache基础上,研发优化推理过程的技术。

以高带宽内存(HBM)为例,在AI推理进程中,本应是数据顺畅流转的 “高速通道”,但现实是资源常常紧缺。一旦HBM资源不足,AI推理便会出现任务卡顿、响应迟缓等问题。UCM的研发方向主要在于不再单纯依赖HBM这一 “独木桥”,而是在存储层面构建起一个多层级、可灵活调配的资源体系,使得推理过程中的数据能够在不同存储介质间合理流动,充分利用各级存储的优势。

根据华为的测试验证,UCM可将首Token时延最高降低90%,系统吞吐最大提升22倍,实现10倍级上下文窗口扩展。

但从技术上看,尽管国内厂商在AI推理的硬件层面,如算力芯片等方面取得了一定进展,但在以KV Cache为核心的软件体系构建上,尚未形成完整、成熟且具有广泛适用性的解决方案。而在国外,已经有一些较为成熟的基于KV Cache的推理加速软件框架与工具,能够很好地与各类硬件平台适配。

华为在会上表示,希望联合产业界的力量,推进以记忆数据管理为中心的AI推理生态。

“目前业界缺乏一套在各种场景下都能普适适用的框架、加速机制与算法,我们希望通过将部分成果开放,促进框架厂商、存储厂商以及GPU厂商共同加速这一框架机制的成熟,最终解决当前AI行业落地过程中的效率与成本问题。”华为数据存储产品线AI存储首席架构师李国杰表示,华为计划在今年9月正式开源UCM。

中国信息通信研究院人工智能研究所平台与工程化部主任曹峰表示,“系统级的推理架构优化已经形成主流,但不是单点技术的突破,我们要从整个芯片级的、软件级的,再到上层的框架级的进行协同考虑,形成整个推理架构,这也是未来产业的发展重点。”

举报
第一财经广告合作,请点击这里
此内容为第一财经原创,著作权归第一财经所有。未经第一财经书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。第一财经保留追究侵权者法律责任的权利。
如需获得授权请联系第一财经版权部:banquan@yicai.com

文章作者

一财最热
点击关闭