气功ღ✿✿◈,瑜伽j9九游会官方网站ღ✿✿◈,ag九游会登录j9入口8月12日下午ღ✿✿◈,华为正式发布AI推理“黑科技”UCM(推理记忆数据管理器)ღ✿✿◈,助力解决AI推理效率与用户体验的难题ღ✿✿◈。
AI推理是AI产业在下一阶段的发展重心ღ✿✿◈。AI产业已从“追求模型能力极限”转向“追求推理体验最优化”ღ✿✿◈,推理体验直接关联用户满意度ღ✿✿◈、商业可行性等核心需求ღ✿✿◈,成为衡量AI模型价值的黄金标尺ღ✿✿◈。
据悉ღ✿✿◈,华为计划在9月开源UCM星光大道朱之文周赛ღ✿✿◈。届时ღ✿✿◈,华为将在魔擎社区首发ღ✿✿◈,后续逐步贡献给业界主流推理引擎社区ღ✿✿◈,并共享给所有Share Everything(共享架构)的存储厂商和生态伙伴ღ✿✿◈。
UCM是一款以KV Cache(键值缓存)为中心的推理加速套件ღ✿✿◈,融合多类型缓存加速算法工具ღ✿✿◈,可以分级管理推理过程中产生的KV Cache记忆数据ღ✿✿◈,扩大推理上下文窗口ღ✿✿◈,以实现高吞吐ღ✿✿◈、低时延的推理体验ღ✿✿◈,从而降低每个Token(词元)的推理成本ღ✿✿◈。
KV Cache是一种用于优化计算效率J9九游会 - 真人游戏第一品牌J9九游会 - 真人游戏第一品牌ღ✿✿◈、减少重复运算的关键技术ღ✿✿◈,但是需要占用GPU(图形处理器)的显存存储历史KV(键值)向量ღ✿✿◈,生成的文本越长ღ✿✿◈,缓存的数据量越大星光大道朱之文周赛ღ✿✿◈。
随着AI产业的发展迈入代理式人工智能时代ღ✿✿◈,模型规模化扩张ღ✿✿◈、长序列需求激增ღ✿✿◈,以及推理任务并发量增长ღ✿✿◈,导致AI推理的KV Cache容量增长ღ✿✿◈,超出了显存的承载能力ღ✿✿◈。
目前ღ✿✿◈,国外领先芯片厂商通过从硬件迭代到软件优化ღ✿✿◈,再到生态绑定ღ✿✿◈,构建起AI推理时代的“铁三角”ღ✿✿◈,短期内难以被代替ღ✿✿◈。中国企业在单点硬件技术上有所突破ღ✿✿◈,但国产软件及生态适配仍有较大差距ღ✿✿◈。
随着信息技术应用创新产业的国产化改造提速ღ✿✿◈,各行业逐步意识到需要加速构建国产推理生态ღ✿✿◈。UCM的核心价值在于提供更快的推理响应ღ✿✿◈、更长的推理序列等ღ✿✿◈。
以提供更长的推理序列为例J9九游会 - 真人游戏第一品牌ღ✿✿◈,UCM通过动态KV逐层卸载星光大道朱之文周赛ღ✿✿◈、位置编码扩展等组合技术J9九游会 - 真人游戏第一品牌ღ✿✿◈,将超长序列的Cache(缓存)分层卸载至外置专业存储ღ✿✿◈,利用算法突破模型和资源限制ღ✿✿◈,实现10倍级推理上下文窗口扩展ღ✿✿◈。
据悉ღ✿✿◈,UCM可根据记忆热度在HBMJ9九游会 - 真人游戏第一品牌ღ✿✿◈、DRAMღ✿✿◈、SSD等存储介质中实现按需流动ღ✿✿◈,同时融合多种稀疏注意力算法实现存算深度协同ღ✿✿◈,使长序列场景下TPS(每秒处理token数)提升2至22倍ღ✿✿◈,从而降低每个Token的推理成本ღ✿✿◈。
Token是AI模型中的基本数据单位ღ✿✿◈。在训练过程中ღ✿✿◈,AI大模型会学习标记Token之间的关系J9九游会 - 真人游戏第一品牌ღ✿✿◈,从而执行推理并生成准确ღ✿✿◈、相关的输出ღ✿✿◈。
数据显示ღ✿✿◈,国外主流AI大模型的单用户输出速度已进入200 Tokens/s区间(时延5ms)J9九游会 - 真人游戏第一品牌ღ✿✿◈,而我国主流AI大模型的单用户输出速度普遍小于60 Tokens/s(时延50至100ms)星光大道朱之文周赛ღ✿✿◈。
同时ღ✿✿◈,随着AI应用向各类实际场景深度渗透ღ✿✿◈,用户规模和请求量急剧攀升ღ✿✿◈,模型分析和生成的Token数呈现指数级增长态势ღ✿✿◈。
巨大的Token处理量意味着高昂的运营成本ღ✿✿◈,包括服务器维护ღ✿✿◈、电力消耗持续攀升等ღ✿✿◈,而保障流畅推理体验需要加大算力投入星光大道朱之文周赛ღ✿✿◈。
最大化的单Token智能承载力和优化成本ღ✿✿◈,成为众多厂商的核心目标ღ✿✿◈,并且Token经济时代来临J9九游会 - 真人游戏第一品牌ღ✿✿◈,训练ღ✿✿◈、推理效率与体验量纲都以Token为表征ღ✿✿◈。
目前ღ✿✿◈,华为AI推理加速方案结合UCM与华为AI存储(OceanStor A系列)技术ღ✿✿◈,与中国银联开展智慧金融AI推理加速应用试点ღ✿✿◈,三大落地业务场景分别是客户之声ღ✿✿◈、营销策划ღ✿✿◈、办公助手ღ✿✿◈。
以办公助手场景为例星光大道朱之文周赛ღ✿✿◈,通过应用华为AI推理加速方案ღ✿✿◈,可支持用户输入超过17万Tokens的超长序列推理ღ✿✿◈,避免超长序列模型推不动的问题ღ✿✿◈。
