DeepSeek再发新论文,DualPath架构如何将推理吞吐量提升近2倍?
2月27日消息,就在外界翘首期盼DeepSeek-V4大模型发布之际,DeepSeek团队再次带来了一份技术惊喜。
DeepSeek联合北京大学、清华大学发布了一篇题为《DualPath: Breaking the Storage Bandwidth Bottleneck in Agentic LLM Inference》的论文,提出了一种创新的推理系统架构,直指当前大语言模型在多轮Agent交互场景下的核心性能瓶颈。
论文开篇指出了一个重要趋势:LLM正在从单轮对话机器人演变为能够自主规划、调用工具、解决现实世界任务的Agentic系统。在这种新范式下,模型不再处理孤立的提示词,而是参与长达数十甚至数百轮的长期会话,上下文不断累积。
这种变化带来了全新的计算特征:高KV-Cache(键值缓存)命中率、低计算需求。论文中的数据显示,在典型的编码任务轨迹中,平均轮次达到157轮,平均上下文长度32.7K tokens,而每次追加的平均长度仅429 tokens,这意味着KV-Cache命中率高达98.7%。
这种“长上下文、短追加、多轮次”的工作负载模式,使得KV-Cache的加载效率而非计算效率成为主导性能的关键因素。
现有架构的致命弱点
当前主流的LLM推理系统普遍采用预填充-解码分离架构。在这种设计中,预填充引擎负责从分布式存储加载KV-Cache,然后传输给解码引擎进行自回归生成。
然而,论文揭示了一个严重的资源利用不平衡问题:预填充引擎的存储网络带宽成为整个系统的吞吐瓶颈,而解码引擎的存储网络带宽却基本闲置。
更令人担忧的是硬件发展趋势。论文数据显示,从NVIDIA Ampere架构到Blackwell架构,I/O与计算的比例下降了14.4倍。这意味着GPU算力增长远快于网络带宽和HBM容量的增长,导致I/O瓶颈问题日益严重。
DualPath的创新突破
面对这一挑战,DeepSeek团队提出了一个反直觉的解决方案:让KV-Cache加载不再局限于预填充引擎。
DualPath的核心洞察是:可以利用解码引擎闲置的存储带宽来加载KV-Cache,然后通过高性能RDMA计算网络传输给预填充引擎。这种“双路径加载”架构将存储I/O从单一瓶颈资源转变为全局可调度的容量池。
具体实现中,DualPath在预填充引擎和解码引擎上各分配少量DRAM作为缓冲区。当采用传统的预填充读取路径时,KV-Cache从存储加载到预填充引擎缓冲区,然后逐层传输到GPU HBM进行计算,最后传输给解码引擎。而当采用新颖的解码读取路径时,KV-Cache首先加载到解码引擎缓冲区,然后在预填充计算过程中逐层传输给预填充引擎。
实现这一设计面临三个关键挑战:
第一,细粒度数据传输。 层式预填充技术将KV-Cache分割成众多细粒度块,传输这些小块数据需要极低的开销。DualPath通过设计两种块布局(全量块和层块)来优化传输效率。
第二,流量隔离。 额外的KV-Cache传输流量可能与模型执行中的延迟敏感型集体通信产生干扰。DualPath采用CNIC中心化的数据传输方式,所有进出GPU的数据都必须通过GPU配对的计算NIC,并利用InfiniBand的虚拟通道技术实现严格的流量分级。
第三,动态负载均衡。 系统需要在线决策每条请求使用哪条加载路径。DualPath设计了两级调度算法,综合考虑存储NIC队列长度、GPU计算负载和请求特征,实现计算和网络资源的联合平衡。
推理吞吐量提升近2倍
论文在三个模型上进行了全面评估:DeepSeek-V3.2 660B、一个27B的降规模版本以及Qwen2.5-32B。
实验数据令人印象深刻:在离线批处理推理场景(如强化学习训练中的 rollout 阶段)中,DualPath相比基线系统实现了最高1.87倍的吞吐量提升。在在线服务场景中,DualPath在不违反SLO的前提下,平均提升了1.96倍的Agent每秒处理能力。
研究团队还在多达1152块GPU的规模上验证了DualPath的可扩展性。从2个预填充引擎+4个解码引擎扩展到48+96配置时,系统实现了接近线性的加速。在在线服务场景中,44+88配置实现了22倍的吞吐量提升,同时保持相似的延迟特征。
同时,论文也指出了未来工作方向:更自适应、更灵活的并行度和预填充-解码比例配置方法,以及在大规模部署中实现更低的TTFT(Time To First Token)百分位数。
在万众期待DeepSeek-V4之际,这篇论文展示了DeepSeek团队在系统层面的深厚积累。DualPath的创新不仅解决了当前Agentic LLM推理的核心瓶颈,也为未来更大规模、更复杂的多轮交互应用铺平了道路。(宜月)
荣耀全明星产品阵容亮相中国电信2025数智科技生态大会12月5日,中国电信2025数智科技生态大会在广州成功举办,本届大会以“智能领航,智惠共生”为主题,全球领先的AI终端生态公司荣耀携旗下荣耀Magic8系列、荣耀500系列等全明星产品阵容亮相此次大会,向现场观众呈现了...
消息称OpenAI员工已出售60亿美元股票 对公司估值5000亿美元8月21日消息,本月初曾有外媒在报道中提到,以3000亿美元估值筹集到83亿美元资金的OpenAI,在洽谈出售部分股票,并允许员工套现,估值可能达到5000亿美元。而在最新的报道中,有外媒提到,OpenAI员工在近期完成了60...
AI公司Anthropic将获得微软和英伟达投资 最高可达150亿美元11月19日消息,据外媒报道,在近几年大热的生成式人工智能方面,由OpenAI前高管Dario和DanielaAmodei在2021年创立的Anthropic,被认为是OpenAI的强劲对手,他们的Claude系列大模型已更新多代,也获得了可观的投资,...
谷歌搜索引擎问世25年最大更新之一,“AI Overviews”体验正式上线5月15日消息,谷歌公司在今天召开的2024年I/O开发者大会上,正式推出了“AIOverviews”搜索体验,将于本周开始向美国地区开放,后续会推广到更多国家和地区。谷歌首席执行官桑达尔・皮查伊(SundarPichai)出席本次...
OpenAI关闭SearchGPT测试候补名单 仅为1万名用户提供访问权限8月19日消息,OpenAI已经关闭了其搜索原型产品SearchGPT的测试候补名单,并向未入选的用户发送了通知邮件。外媒称,只有1万名用户被授予SearchGPT访问权限,这可能有助于避免搜索机器人提供错误建议的情况,此前谷歌...
如何选购kawai电钢琴??2023年kawai选购攻略大全来了!
哈喽!最近有超多小伙伴问我:怎么选一台kawai性价比高的电钢琴?为了解决大家在选择kawai电钢的困惑,我专门...
苹果招募生成式AI人才 提供数十个大模型岗位
根据最新的招聘信息,苹果正在扩大其生成式人工智能领域的专业团队,并计划将这项技术应用于iPhone和iPad等...
昆仑万维旗下Opera生成式AI服务海外用户数突破100万
昆仑万维旗下Opera宣布,生成式AI服务Aria海外用户数突破100万。2023年5月24日,Opera正式推出生成式AI助理...
创始人王慧文退出 美团成AI公司光年之外唯一股东
8月7日消息,据国家企业信用信息公示系统显示,北京光年之外科技有限公司在近期完成工商变更,创始人王慧文...