代码 | 名称 | 当前价 | 涨跌幅 | 最高价 | 最低价 | 成交量(万) |
---|
8月12日,华为发布了AI推理创新技术UCM(推理记忆数据管理器 ,Unified Cache Manager)。
简单来说,这是专门面向大模型推理过程的“缓存管理技术”,目的是为了优化推理速度 、效率和成本 。
具体来看 ,UCM是一款以KV Cache为中心的推理加速套件,其融合了多类型缓存加速算法工具,分级管理推理过程中产生的KV Cache记忆数据 ,扩大推理上下文窗口,以实现高吞吐、低时延的推理体验,降低每Token推理成本。
现场,华为公司副总裁、数据存储产品线总裁周跃峰表示 ,UCM推理记忆数据管理器旨在推动AI推理体验升级,提升推理性价比,加速AI商业正循环。同时 ,华为联手中国银联率先在金融典型场景开展UCM技术试点应用,并联合发布智慧金融AI推理加速方案应用成果 。
UCM是什么
对于上述颇多术语的介绍,我们来拆解一下。
首先 ,什么是KV Cache?
据了解,KV Cache是一种用于优化Transformer等模型推理速度的技术,它的核心思想就是把历史 token的Key和Value(矩阵)缓存下来 ,下次生成时直接用,避免重新算,从而提升推理速度 、降低计算成本。代价是会占用更多内存 ,所以它是一种“用内存换计算 ”的工程优化手段 。
换言之,KV Cache是一种存储机制,打个比方,就像是“模型推理过程中的记忆本” ,用来临时保存计算中间结果,让后续步骤少做重复工作。
那么为什么要推出UCM?因为推理过程中仍存在不少痛点。
随着AI产业已从“追求模型能力的极限” 转向“追求推理体验的最优化 ”,推理体验直接关联用户满意度、商业可行性等。推理体验直接关系到用户与AI交互时的感受 ,包括回答问题的时延、答案的准确度以及复杂上下文的推理能力等方面 。
资料显示,国外主流模型的单用户输出速度已进入 200 Tokens/s区间(时延 5 ms),而我国普遍小于60 Tokens/s(时延50 – 100 ms) ,因此,如何解决推理效率与用户体验的难题迫在眉睫。目前,包括华为在内 ,各大科技企业都会在调度KV Cache基础上,研发优化推理过程的技术。
华为最新的UCM就引入融合了更多的算法工具,可以对接不同引擎与算力的推理引擎插件(Connector) 、支持多级KV Cache管理及加速算法的功能库(Accelerator)、高性能KV Cache存取适配器(Adapter)三大组件 ,通过推理框架、算力、存储三层协同,实现AI推理“更优体验 、更低成本” 。
比如,华为介绍道,依托UCM层级化自适应的全局前缀缓存技术 ,系统能直接调用KV缓存数据,避免重复计算,使首Token时延最大降低90%。
据悉 ,在华为与中国银联的联合创新技术试点中,中国银联“客户之声”业务场景下,借助UCM技术及工程化手段 ,大模型推理速度提升125倍,仅需10秒即可精准识别客户高频问题,促进服务质量提升。
为何率先在金融行业应用?金融业天然有数字化属性 ,也是数字化最早的领域之一,因此金融行业率先落地有数据基础和技术需求,尤其是生成式AI浪潮中 ,如何用好大模型服务业务是重要课题 。同时金融对速度、效率、安全 、可靠性等要求高,也是验证技术的标杆场景。
未来,中国银联将依托国家人工智能应用中试基地,联合华为等生态伙伴共建“AI+金融 ”示范应用 ,推动技术成果从“实验室验证”走向“规模化应用”。
华为的差异化路径
谈及UCM的差异化,华为数据存储产品线AI存储首席架构师向21世纪经济报道记者表示,当前 ,业界在分级缓存管理方面已有许多探索与实践,华为UCM在这一领域的最大优势在于将专业存储能力引入其中,引入后在软硬件协同与卸载方面做了大量工作 ,例如直通加速、KV检索索引与底层文件系统元数据的融合等 。同时,在KV Cache生命周期管理方面,UCM具备预热、分级 、淘汰等一整套机制 ,这是UCM在N级缓存管理上的差异化能力之一。
其次,上述专家提到,在算法加速库方面 ,业界现有方案普遍只停留在Prefix Cache这一层面,并未像华为一样,将稀疏全流程算法、后缀检索算法等投入商用,也缺乏多样化的技术手段。相比之下 ,UCM在这一层贡献了更多、更丰富 、更可靠的算法,算法库还在不断扩展完善 。
此外,UCM的体系更加完整 ,专家谈道,推理场景多种多样,请求的输入输出变化极大 ,而目前业界缺乏一套在各种场景下都能普适适用的框架、加速机制与算法。UCM能够在各种长短序列、不同请求条件下,实现自动切换与自适应的平滑优化。
“华为希望通过将部分成果开放,促进框架厂商 、存储厂商以及算力厂商共同加速这一框架机制的成熟 ,最终解决当前AI行业落地过程中的效率与成本问题。”专家说道 。
今天,华为还正式公布了UCM开源计划。UCM通过开放统一的南北向接口,可适配多类型推理引擎框架、算力及存储系统。今年9月 ,UCM将正式开源,后续逐步贡献给业界主流推理引擎社区,和全产业共同推动AI推理生态的繁荣发展 。
整体而言,一方面是华为在AI推理技术层面持续进行研发 ,UCM也是结合华为存储技术的积累进行创新;另一方面,在AI的布局上,华为继续在产业链的各个环节进行升级 ,实现系统性的提升。
业内人士指出,国外领先芯片厂商通过硬件迭代、软件优化、生态绑定构建了推理时代的“铁三角 ”,短期内难以被代替。中国单点硬件技术 ,如芯片设计上有所突破,但国产软件及生态适配还有差距,华为等科技厂商也在不断补上生态短板 。
正如华为专家所言:“大家一定要关注网络 、存储、端到端的系统性、成本降低 ,才能有效的去加速AI的落地。从单点的算力模组转向系统性优化,这是大趋势。”
杠杆股票:贵阳股票配资公司-火山引擎发布豆包大模型1.6 字节跳动CEO梁汝波:AI发展还在马拉松的前500米
股票杠杆炒股平台:中国股票配资网在线登录-提及11家中国科技公司 黄仁勋:低估华为和中国制造的人都极其天真
专业炒股配资门户:股票配资平仓线-华为将发布AI推理领域突破性成果 完善中国AI推理生态关键部分
散户如何加杠杆买股票:股票配资技巧和方法-华为将发布AI推理领域突破性成果 产业链有望迎重磅催化
中国股票配资网网:a股加杠杆-计划投资超100亿美元!Meta被曝拟入股AI数据标注公司
杠杆炒股在哪里申请:股票短线配资-黄仁勋刚刚宣布!将在中国台湾建AI超级计算机
还没有评论,快来说点什么吧~