搜索
当前所在位置:首页 >> 时尚

【高某艳照流出粉圈轰动】梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

发布时间:2025-09-13 17:25:37 作者:bks 点击:566 【 字体:

2 月 18 日,梁文理速马斯克发布 Grok 3 的锋亲热度还没过去,梁文锋就作为 co-authors 带着 DeepSeek 研究团队杀了回来。自挂k最制推

公布新研究的新论新机线提推文发布不到 3 个小时,就带来了三十多万的文丢浏览量,火爆程度不逊 OpenAI。出注高某艳照流出粉圈轰动

梁文锋亲自挂名,意力DeepSeek 最新论文丢出注意力新机制,度直推理速度直线提升 11 倍

而这次 DeepSeek 团队最新的研究论文更是重磅,论文中介绍了一种全新的梁文理速,可用于超快速的锋亲长上下文训练与推理的注意力机制 —— NSA,值得一提的自挂k最制推是,NSA 还具有与硬件对齐的新论新机线提特点,十足的文丢硬件友好。

论文中提到的出注 NSA 核心组成主要包括三点:分别是动态分层稀疏策略、粗粒度的 token 压缩以及细粒度的 token 选择。有了这三点核心技术的加持,就能够在有效降低预训练成本的情况下,同时显著提升推理速度,特别是李某艳照流出合集在解码阶段实现了高达 11.6 倍的提升。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

更让人感到眼前一亮的是,DeepSeek 创始人兼 CEO 梁文锋这次也出现在了合著名单之中,不仅亲自上阵,还亲自提交了论文。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

看热闹不嫌事大的网友甚至还借此调侃奥特曼:DeepSeek 又发了一篇很强的新论文了哦!

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

DeepSeek 填补了稀疏注意力机制存在的缺陷

随着 AI 领域的不断发展,长上下文建模能力的关键性日益凸显,尤其在现实世界的应用中有着广泛需求,比如深度推理、代码库级代码生成和多轮自主代理系统。就比如 DeepSeek 自家的 R1 模型就是突破了这个技术,使其能够处理整个代码库、长篇文档,并保持成千上万 token 的对话连贯性,同时也能在长距离依赖的情境下进行复杂推理。

但序列越来越长,传统的注意力机制就开始因为太过复杂成为了造成运行延迟的最大因素。理论分析显示,使用 softmax 架构的注意力计算在解码 64k 长度的上下文时,几乎占据了总延迟的 70-80%,传统注意力机制存在明显缺陷,提升速度成了一件非常重要的事情。

并且自然的实现高效长上下文建模的方法是利用 softmax 注意力的固有稀疏性,选择性地计算关键的 query-key 对,从而大幅降低计算开销,并保持模型性能。

近年来,相关研究在这一方向取得了进展,提出了如 KV 缓存淘汰、块状 KV 缓存选择,以及基于采样、聚类或哈希的选择方法等策略。尽管这些方法展示了很大的潜力,但现有的稀疏注意力技术在实际部署时种仍未能达到预期效果。并且大部分研究主要集中于推理阶段,缺乏对训练阶段有效支持,因此并不能充分发挥稀疏模式的优势。

为实现更高效的稀疏注意力,DeepSeek 研究团队提出了一种原生可训练的稀疏注意力架构 NSA,这个架构的核心内容是通过动态分层稀疏策略,结合粗粒度的 token 压缩和细粒度的 token 选择,从而保留全局上下文感知能力和局部精确性。

同时 NSA 通过精妙的算法设计和针对现代硬件的优化,实现在计算速度上的显著提升,并支持端到端训练,既提高了推理效率,又减少了预训练计算量,同时保持了模型性能。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

除此之外,新研究还通过使用 Triton,开发了与硬件高度兼容的稀疏注意力内核。

DeepSeek 的优化策略则是采用不同的查询分组方法,并通过以下特性实现接近最优的计算强度平衡:

1、组内数据加载:每次内循环加载该组所有头的查询及其共享的稀疏 KV 块索引。

2、共享KV加载:内循环中连续加载 KV 块,减少内存加载的开销。

3、网格循环调度:由于内循环长度在不同查询块间几乎相同,将查询/输出循环与 Triton 的网格调度器结合,简化并优化了内核的执行。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

DeepSeek:NSA 已在多面碾压全注意力

在对 NSA 进行技术评估时,研究人员分别从通用基准性能、长文本基准性能、思维链推理性能三个角度,分别将 NSA 与全注意力基线和 SOTA 稀疏注意力方法进行比较。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

测试中 NSA 的预训练损失曲线相比全注意力基线呈现出更加稳定和平滑的下降趋势,且始终优于全注意力模型。

除此之外,为了验证 NSA在实际训练和推理中的效果,DeepSeek 研究团队采用了当前领先的 LLM 常用实践,选择了一个结合分组查询注意力(GQA)和混合专家(MoE)架构的模型作为样本,该模型的总参数量为 27B,其中 3B 为活跃参数。

在这个基础上,DeepSeek 对 NSA、全注意力和其他注意力机制分别进行了评估。结果显示,尽管 NSA 采用了稀疏性,但其整体性能仍然优于所有基线模型,包括全注意力模型,并且在 9 项评测指标中有 7 项表现最好。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

另外,在长上下文任务中, NSA 在 64k 上下文的“大海捞针”测试中表现出了极高的检索精度。这归功于其分层稀疏注意力设计,通过粗粒度的token压缩实现了高效的全局上下文扫描,同时通过细粒度的选择性标记来保留关键的信息,从而有效平衡了全局感知与局部精确度。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

同时研究团队还在 LongBench 基准上,也对 NSA 进行了评估。最终 NSA 以最高平均分0.469,优于其他所有基准。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

在思维链推理性能评估方面,研究人员通过从 DeepSeek-R1 进行知识蒸馏,并借助 100 亿条 32k 长度的数学推理轨迹进行了监督微调(SFT)。

最后用 AIME 24 基准来评估所生成的两个模型Full Attention-R(全注意力基准模型)和 NSA-R(稀疏变体模型)的表现。

在 8k 上下文设置下,NSA-R 的准确率超过了 Full Attention-R,差距为 0.075。即使在 16k 上下文环境中,NSA-R 仍然保持着这一优势,准确率高出 0.054。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

NSA 验证清华姚班早期论文

值得一提的是,论文末尾提到的处理复杂数学问题的示例,再次验证了两年前清华大学姚班一篇论文中的结论。

由于 Transformer 架构在注意力机制上的局限,处理复杂数学问题时,tokens 数量过多常常会导致性能下降,特别是在任务复杂度较高时。

DeepSeek 的最新研究通过优化问题理解和答案生成,将所需的tokens数量减少至 2275,从而成功得出了正确答案。而与之对比的基线方法,尽管消耗了 9392 个 tokens,最终却得出了错误的答案。这一显著的提升展示了新方法在效率和准确性上的优势。

清华大学姚班的那篇论文探讨了在 Transformer 架构下,模型在计算两个四位数乘法(例如 1234 × 5678 )时的表现。研究发现,GPT-4 在处理三位数乘法时的准确率为 59%,然而当任务变为四位数乘法时,准确率却骤降至 4%。这一现象揭示了在面对更复杂计算时,Transformer 架构的推理能力受到显著限制。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

这些研究结果表明,尽管 Transformer 架构在某些任务中表现出色,但在处理复杂推理任务,尤其是需要大量信息处理时,仍然存在瓶颈。

关于 DeepSeek 论文结尾的复杂数学题,雷峰网(公众号:雷峰网)也用 GPT o3-mini 进行了解读,最终呈现的解题过程比 DeepSeek 论文中给出的解题过程要长出 2 倍之多。


由此可见,大模型的发展就是一个不断推陈出新的过程。

而反观 DeepSeek,未来的研究可能会更加专注于如何优化模型在长文本和代码库分析中的表现,以进一步提升其推理能力和实用性。

雷峰网原创文章,未经授权禁止转载。详情见转载须知。

梁文锋亲自挂名,DeepSeek 最新论文丢出注意力新机制,推理速度直线提升 11 倍

阅读全文
相关推荐

AI 陪伴赛道,会诞生下一个“泡泡玛特”吗?

AI 陪伴赛道,会诞生下一个“泡泡玛特”吗?
AI 正在从生产工具的角色中抽身,缓慢却坚定地走向一个全新的方向——情绪陪伴。当算法不再只为效率服务,越来越多的产品开始尝试构建“有灵魂”的存在。无论是可以挂在胸前、随时回应你情绪的小型硬件,能够在家 ...

伯克利罗剑岚:机器人的范式革命,藏在真实世界中

伯克利罗剑岚:机器人的范式革命,藏在真实世界中
作者 | 赖文昕编辑 | 陈彩娴近日,伯克利大学 Sergey Levine 团队发布了一项强化学习方向的重磅工作——HIL-SERL,引起了具身智能领域的广泛讨论与关注。根据实验结果,基于强化学习框 ...

蚂蚁武威:下一代「推理」模型范式大猜想

蚂蚁武威:下一代「推理」模型范式大猜想
R1 之后,长思维链成为研究下一代基础模型中 “推理”Reasoning)能力的热门方向。一方面,R1 证明了大模型深度思考的可行性;与此同时,尽管 R1 展现出了强大的性能,大模型推理的序幕实则才刚 ...

上交大冷静文:模型发展需要和芯片、系统厂商协同

上交大冷静文:模型发展需要和芯片、系统厂商协同
作者丨朱可轩编辑丨陈彩娴近期,上海交通大学与 AI Infra 创企魔形智能联合研究团队在由 IEEE 计算机协会主办的 HPCA 2025International Symposium on Hig ...

基于昇腾AI的辽宁首个大模型发布:融合多模态信息,模型参数规模10亿

基于昇腾AI的辽宁首个大模型发布:融合多模态信息,模型参数规模10亿
3月11日,“创未来,享非凡”昇腾AI开发者创享日2023年全国巡回首站活动在沈阳成功举办。活动现场,会议诠释昇腾AI如何通过计算架构创新及全栈系统的协同优化,展示浑南及辽沈地区昇腾人工智能产业发展的 ...

对话UCL青年教授赵湖斌:可穿戴式DOT如何重塑脑机接口

对话UCL青年教授赵湖斌:可穿戴式DOT如何重塑脑机接口
我们应当如何实时监控自己大脑的健康状态?以马斯克的Neuralink为代表的侵入式脑机接口,过植入大脑皮层的线状电极直接读取神经信号,实现了高精准度信号采集和脑际交互。但是,侵入式脑机接口方案的风险也 ...

CNCC 落幕:国产大模型已经进化到能在横店给我们点咖啡

CNCC 落幕:国产大模型已经进化到能在横店给我们点咖啡
今年到CNCC现场参会的朋友,想必都对CNCC 2024举办所在地——超过6200亩的横店圆明新园印象深刻!虽然园内建筑身临其境,并且薅了主办方一把羊毛,免门票游览了圆明新园与横店多个著名旅游景点,但 ...

几十个测试后,发现海螺语音与 ElevenLabs 掰手腕的能力不是盖的

几十个测试后,发现海螺语音与 ElevenLabs 掰手腕的能力不是盖的
试想一个场景,职场中接到一个香港客户的单子,但是在交付的过程中耽搁了时间,现在要进行线上沟通解释,那么你面对的情况大致是这样的:如果不对这段音频进行标注,可能大部分人会认为这一粤语、英语混用的片段是真 ...

独家丨盛大挖角代季峰,筹建新 AGI 公司对标 DeepSeek

独家丨盛大挖角代季峰,筹建新 AGI 公司对标 DeepSeek
AI 科技评论独家获悉,近日盛大网络挖角清华大学电子工程系副教授代季锋,正在筹备一家新的 AGI 公司,号称“对标 DeepSeek”,已有多位技术人才被猎头接触、介绍该团队的工作机会。目前,该项目正 ...

从 Snapchat 离开的人

从 Snapchat 离开的人
时代的幸运儿,天生的梦想家。王孝宇、李佳、杨建朝建立Snap 研究院美国移动互联网独角兽 Snap 曾因公司从成立到上市花了不到 5 年时间的财富故事风靡全球,但鲜少有人知道,它的人工智能研究院最早是 ...

硅谷巨头要学会接受:「DeepSeek 现象」只是开始

硅谷巨头要学会接受:「DeepSeek 现象」只是开始
2025 年的春节无疑已被 DeepSeek 霸屏。过去三年每年的春节都有一次重磅的 AI 讨论:2023 年是 ChatGPT、2024 年是 Sora,这两股风潮都是由 OpenAI 掀起,而 2 ...

伯克利具身智能图谱:深度强化学习浪尖上的中国 90 后们

伯克利具身智能图谱:深度强化学习浪尖上的中国 90 后们
作者 | 赖文昕编辑 | 陈彩娴短短不到一年内,边塞科技、星动纪元、星海图和千寻智能接连成立,跻身国内明星创企之列;大洋彼岸,Covariant 和 Anyware Robotics 也正在湾区闪耀。 ...
返回顶部