近日,美国卡内基梅隆大学助理教授陈贝迪和团队提出了“动力学扩展定律”(Kinetics Scaling Law)。在该定律的指导之下,当在英伟达 B200 上实现相同精度时,资源需求最高可降低至原来的三分之一。 本次研究团队证明,稀疏注意力从根本上重塑了扩展格局,使得生成内容的长度更长、精度更高。其在论文中表示,稀疏动力学可能预示着一种新范式,这种新范式使得即便在预训练进入平台期后仍能推动持续进步。 研究中,他们还强调了将模型架构、测试时推理技术与硬件基础设施进行协同设计的必要性,并认为这是推动下一波可扩展大模型部署的关键步骤。虽然本次分析主要集中在英伟达 GPU 上,但“扩展内存带宽比扩展浮点运算(FLOP,floating-point operation)能力更具挑战性且成本更高”这一基本原理广泛适用于各类硬件平台,因此本次成果具有一定的普适性。 研究团队表示,他们从实际效率的角度重新思考了测试时扩展定律,发现较小模型的有效性实际上被严重高估了。具体来说,此前人们基于计算最优性的研究工作,其实忽略了推理时策略所引入的关键内存访问瓶颈问题。 而在本次研究之中,他们全面分析涵盖了从 0.6B 到 32B 参数的模型,借此揭示了动力学扩展定律,该定律通过同时纳入计算成本和内存访问成本,能够更好地指导资源分配。 动力学扩展定律表明,在参数超过某个阈值的模型上使用测试时计算,比在较小模型上使用更为有效。一个关键原因是在测试时扩展中,注意力才是主要的成本因素(而非参数数量)。 受此启发,研究团队提出了以稀疏注意力为中心的新扩展范式,该范式可以降低每个 token 的计算成本,从而能在相同的资源预算下,支持更长的文本生成和更多的并行样本处理。 研究团队发现,稀疏注意力模型始终优于密集注意力模型。这说明随着计算投入的增加,稀疏注意力是必不可少的,而且会越来越重要,只有这样才能实现测试时扩展的全部潜力。而与训练不同的是,准确性并未随着计算的增加而饱和,而是会通过增加生成量不断得到提高。 那么,研究团队开展本次课题的原因是什么?这要从测试时扩展(TTS,Test-time scaling)说起。眼下,测试时扩展策略已经成为增强大模型推理能力的一种重要手段,特别是在智能体与复杂环境交互的场景中,例如编写代码、浏览网页等场景中。 然而,这些能力会带来显著的推理时成本,因此理解这一新范式下的性能扩展规律至关重要。现有的扩展定律研究主要关注浮点运算(FLOP,floating-point operation),但却忽略了内存访问成本。而内存访问成本往往是决定实际延迟的关键因素,因此上述做法可能会导致部署决策不够优化。 如前所述,在本次研究之中他们展示了测试时扩展的动力学扩展定律,该定律源自于一个明确纳入内存访问成本的成本模型,它揭示了关于测试时计算资源分配的帕累托最优策略的截然不同的结论。 具体而言,研究团队发现:首先,先前的标度律始终高估了通过推理时策略增强的小模型的有效性;其次,计算资源最好先用于将模型规模增大到一个关键阈值,然后再投入测试时策略。 研究中,他们针对一系列最先进的推理模型所进行的屋顶线分析表明:之所以出现最优测试时计算策略的转变,是因为测试时策略不成比例地增加了注意力成本,而非增加了参数成本。 研究团队的等成本分析表明,注意力机制随生成长度呈二次方增长的特性,加上键值内存相对于模型参数的失衡扩展趋势,共同使得人们更加倾向于扩大模型规模、而非增加生成长度。这种失衡现象在混合专家架构中被进一步加剧,正因此这种架构虽然能够降低激活参数量,但却未能缓解注意力计算的高开销现状。 基于上述分析,研究团队引入了本次新的扩展范式,该范式以稀疏注意力为中心,从根本上重塑了扩展规律,显著提高了测试时扩展的可扩展性。 根据研究团队的稀疏动力学扩展定律,最好将计算资源分配给测试时策略,而非用于降低稀疏性。随着在测试阶段投入更多计算资源,高稀疏性对于充分利用这些策略的优势变得愈发关键。 尽管稀疏性传统上要么用于小模型的正则化,要么用于在参数过多的网络中减少计算量,但本次研究引入了一个根本不同的视角——稀疏性能够成为实现高效可扩展测试时计算的核心使能技术。与此同时,本次研究强调了在建立可扩展性定律的实际认知过程中,必须同时考量硬件因素与模型架构的重要性。 在实验设置和实验任务上,研究团队聚焦于以下三个具有一定挑战性的推理基准:涵盖代数、组合数学和几何的 AIME24 和 AIME25,以及包含近期编程竞赛中的复杂编程问题的 LiveCodeBench。在模型选择上,研究团队评估了 Qwen3 和 DeepSeek-R1-DistilledQwen 系列不同模型的性能。 为了消除测试时策略的具体实现所引入的混杂效应,研究团队采用了两种具有代表性但简单的方法:长 CoT 和 Best-of-N。长 CoT 是一种在先进推理模型中被广泛使用的方法,Best-of-N 则通过可验证问题的解决率进行效果评估,并借助测试时间扩展给出理论性能上限。 在硬件上,研究团队使用了英伟达 B200。实验中,他们在每个节点 8 个 GPU 上,通过批量大小和上下文长度分别为(4096,16384)和(2048,32768)的设置,展示了块 top-k 注意力在不同模型规模下的优势。 同时,他们假设具有相似上下文长度和生成长度的任务的工作负载是统一的。如下图所示,块 top-k 注意力能够大大提高推理吞吐量,特别是对于较小的模型来说。例如,Qwen3-0.6B 模型实现了 23.6∼33.3 倍的吞吐量增长。 这一性能提升反映出:随着上下文长度的增加,稠密注意力机制的效率会逐渐下降,而较小模型受到的影响尤为显著。吞吐量的显著提升凸显了这样一种潜力:当与推理系统和测试时策略进行适当的协同设计时,任务级吞吐量也能获得相应的提升。 除了 top-k 注意力机制之外,目前他们仅探讨了一种简单的变体(即块 top-k 注意力),尽管如此已能展现出强大的可扩展性。眼下,已经存在更先进的稀疏注意力算法,这些算法具备将测试时扩展效率的边界推向更高水平的潜力。 另一方面,测试时扩展算法旨在自适应地将计算资源分配给任务甚至是分配给 token。将它们扩展到稀疏注意力中的新资源分配问题,对于达到稀疏动力学的极限至关重要。例如,由于生成长度与稀疏注意力下的最佳试验次数密切相关,因此可以将其用作调整试验次数和键值预算的动态信号。 此外,稀疏的注意力大大降低了推理成本,使得更多的推理试验和更长的生成成为可能,这为在固定资源预算内配置测试时扩展策略提供了更大的灵活性。 同时,通过将关注点从 token 级指标转向任务级吞吐量,研究团队认为本次成果能为算法与系统的协同设计开辟更广阔的空间。需要说明的是,本次研究本质上属于算法层面的成果,并不针对特定应用。尽管大模型可能被恶意滥用,但本研究并未引入现有系统之外的新能力或风险。 研究团队表示,测试时扩展可能会消耗大量能源,引发人们对广泛部署的环境可持续性的担忧。而通过推广稀疏注意力,他们希望帮助减少推理系统的碳足迹和能耗,并助力实现更广泛的可持续人工智能目标。 未来,他们希望这项研究能够指导在模型架构、测试时策略和硬件系统方面的协同设计,以便更好地解锁下一波大模型扩展的潜力。
特种兵营里被轮流的小说叫什么来着《中国新闻周刊》:许多空难调查专家都谈到了可能存在的襟翼问题。但是,如果机组在起飞前没有正确设置襟翼,他们会收到起飞构型警报的提示,他们在进行检查单流程时也会发现这个问题。经验丰富的机组会出现这样的问题吗?自2024年8月担任波音CEO以来,奥特伯格试图扭转公司颓势,重振昔日雄风。他带领波音克服罢工危机,并表示有信心扭亏为盈。然而,空难发生后,波音再次受到关注。12日,波音股价下跌近5%。特种兵营里被轮流的小说叫什么来着满18岁免费观看高清电视剧推荐Tony个人微信号:525474947(如果你希望参加Tony的课程和翻译业务,那就加我详细了解,如果你没有这个需求,仅仅是出于对于英文的爱好,那关注我公众号的文章就行了。我个人不喜欢闲聊,加了好友,彼此又没有话说,那还不如不加,对吧?)有网友帮忙问周边亲友,“我好像认识他们,明天我问一下我妈,求证一下。”有网友想去档案馆看看,“双流人刷到了,明天帮你问问双流区档案馆有没有相关记录。我的婆婆也姓江,和你爷爷算家门。”
20250819 ❤️ 特种兵营里被轮流的小说叫什么来着2024年,中电金信发布“源启金融大模型”,今年有望形成一支3000名掌握AI技术与行业知识的复合型人才队伍。“我们帮助某股份行建立的企业级模型运行管理平台,预计每年可节省人力成本2000多万元。”中电金信高级副总裁张东蔚透露。姨母的绣感中字3二是在互惠合作中维护共同利益。全球经济已经深度融合,你中有我、我中有你,没有哪个国家能够离开世界独自成长、独自繁荣,合作是发展的必然选项,维护大家的共同利益就是维护自身利益。面对全球性挑战,我们要坚持共商共建共享,加强宏观政策协调,维护全球产业链供应链稳定畅通,以更加紧密的合作增强各国发展的安全与韧性。中国将继续积极参与亚太经合组织、上海合作组织、金砖、二十国集团等多边合作,推动高质量共建“一带一路”,加大对全球互联互通、可持续发展等方面的投入,更好促进共同繁荣。
📸 王小光记者 朱晓科 摄
20250819 🔞 特种兵营里被轮流的小说叫什么来着由此,智能氧舱被推上“神坛”。可随着大众对衰老干预认识的愈加深入,高净值人群期待更多层次、多维度的综合干预策略。在长寿设备上的需求,也就从智能氧舱的“一枝独秀”转向全链路长寿设备。少女国产免费观看高清电视剧大全二是与人类的多模态协作,包括语言澄清、任务讨论、情绪共鸣等。当前 Gemini Deep Research 等助理已经能够询问用户的具体需求,但 Context Scaling 要求 AI 能够理解用户的情绪状态、文化背景,甚至未说出口的期望。只有能不断从互动中汲取信息的系统,才具备面对复杂情境的应变能力。
📸 濮方正记者 刘志强 摄
🕺 张阔:AI这个时代,起码我们当下这个阶段,技术定义着“产品能力”的上限。我们其实做了一些调整,以前的模式是产品经理和技术并行,业务类的引领小团队。但今天算法本身就是业务,技术要去定义产品、技术要去理解客户的需求。产品功能和模型能力其实已经合二为一了,所以你需要让定义着“产品能力”上限的人去带领团队执行,才更有可能成功。九·幺.9.1