APP推广合作
联系“鸟哥笔记小乔”
人大让AI搜索智能体跑得更快:扩散模型也能边思考边搜索了
2026-02-21 13:46:15


这项由中国人民大学、上海交通大学等机构联合完成的搜索智搜索研究发表于2026年,论文编号为arXiv:2602.07035v1,更快标志着人工智能搜索代理技术的扩散考边一次重要突破。有兴趣深入了解的模型读者可以通过该论文编号查询完整论文。

想象一下,边思你正在和一个超级聪明的人大让助手对话,你问它一个复杂问题,搜索智搜索比如"2023年诺贝尔物理学奖得主的更快主要研究领域与量子计算有什么关系?"传统的AI助手会这样工作:先思考一会儿该搜索什么,然后去网上搜索相关信息,扩散考边等搜索结果返回后再继续思考,模型接着可能还要进行第二次、边思第三次搜索,人大让每次都要停下来等待。搜索智搜索这个过程就像一个厨师必须严格按顺序做菜——先切菜,更快等切完了再开火,等火热了再下锅,每个步骤都要等前一步完成。

然而,中国人民大学的研究团队发现了一个更聪明的方法。他们开发了一种名为DLLM-Searcher的新型AI搜索系统,就像让厨师学会了同时处理多个任务——一边切菜一边热锅,在等水开的时候准备调料。这种"边思考边搜索"的能力让整个问答过程提速了约15%,而且回答质量丝毫不减。

这项研究的核心在于使用了一种叫做"扩散大语言模型"的新技术。传统的AI语言模型就像读书一样,必须从左到右、一个字一个字地阅读和生成文本。而扩散模型则更像拼图游戏,可以同时在不同位置放置拼图块,不必严格按照顺序进行。研究团队巧妙地利用了这个特性,让AI能够在等待搜索结果的时候继续思考其他问题。

一、传统搜索助手的"等待困境"

传统的AI搜索助手面临着一个根本性问题,就像一个非常守规矩的学生,必须严格按照老师的要求一步步完成作业。当你向它提出一个需要查找信息的问题时,它会按照一个叫做ReAct的工作模式来操作。这个过程可以比作去图书馆做研究:首先,AI会坐下来思考"我应该查找什么资料",然后起身去书架找书,找到书后必须等图书管理员帮忙取书,拿到书后再回到座位上阅读,如果发现还需要更多资料,就得重复这个过程。

这种工作方式的问题显而易见:大量时间浪费在了等待上。特别是当AI需要进行多轮搜索时,这种等待时间会累积起来,就像排队买票一样,每个人都要等前面的人完全买完票才能轮到自己。研究数据显示,在处理复杂的多步骤问题时,这种等待时间可能占到总处理时间的相当大比例。

更糟糕的是,现有的扩散大语言模型虽然理论上具备并行处理的能力,但在实际应用中却表现得像一个刚学会使用电话的人,经常无法正确拨号或者说出正确的话。研究团队测试发现,原始的扩散模型在尝试执行搜索任务时,失败率接近100%。这些模型要么生成空白回应,要么无法产生正确的搜索指令格式,要么在思考过程中出现各种格式错误。

二、让AI学会"一心多用"的训练过程

为了解决这些问题,研究团队设计了一套完整的训练方案,就像为一个新员工制定详细的培训计划。这个训练过程分为两个阶段,每个阶段都有明确的学习目标。

第一个阶段叫做"代理监督微调",就像给AI上基础课程。研究团队首先让一个表现优秀的老师模型来生成大量的标准答案。这个过程类似于让优秀的老师为学生制作标准作业本。老师模型会面对各种复杂问题,展示如何一步步思考,如何制定搜索策略,如何根据搜索结果进行推理。研究团队从HotpotQA、2WikiMultiHopQA和Musique这三个数据集中各选取了2048个问题,让老师模型完成后,再筛选出3977个高质量的完整解答轨迹。

在这个阶段,研究团队还开发了一种特殊的"代理噪声处理"技术。由于扩散模型的训练需要在文本中添加"噪声",就像在拼图中故意隐藏一些拼图块让模型去猜测,但普通的噪声添加方法会让模型学到错误的信息。研究团队巧妙地设计了一种只对思考和搜索指令部分添加噪声的方法,而对搜索返回的结果保持原样,这样模型就能学会正确的推理和搜索技能,而不会被无关信息干扰。

第二个阶段是"代理方差减少偏好优化",类似于让AI进行实战演练。研究团队让经过第一阶段训练的模型对同一个问题进行两次独立回答,然后比较哪个回答更好。就像让学生做同一道题两遍,然后老师挑出做得更好的答案作为标准。通过这种对比学习,模型逐渐学会了什么是更好的推理方式和搜索策略。这个阶段使用了8000个训练样本,最终筛选出2237个有效的对比对,包含4474个回答轨迹。

三、革命性的"并行推理行动"模式

研究团队的最大创新在于开发了一种叫做P-ReAct的新工作模式。如果说传统的ReAct模式像是一个严格按照食谱做菜的厨师,那么P-ReAct就像是一个经验丰富的大厨,可以同时处理多个烹饪步骤。

这个新模式的核心思想是让AI提前规划好要执行的搜索操作。就像一个聪明的图书管理员,在开始查找资料之前就先列出要查找的所有书籍清单,然后同时派发多个查找任务。具体来说,P-ReAct通过两个关键技术实现了这个目标。

第一个技术叫做"工具调用标记预填充"。研究团队发现,可以在AI开始生成回答时就预先放置搜索指令的起始和结束标记,就像在空白纸上先画出几个框框,告诉AI要在这些框框里填入搜索命令。这种做法相当于给AI一个明确的结构模板,让它知道应该在什么地方生成搜索指令。

第二个技术是"置信度偏向"。由于扩散模型在生成文本时会给每个位置的每个可能字词分配一个置信度分数,研究团队巧妙地人为提高了搜索指令区域内字词的置信度分数。这就像给重要任务贴上"优先处理"的标签,确保AI优先完成搜索指令的生成,然后再处理思考内容。

通过这两个技术的结合,P-ReAct实现了近乎100%的搜索指令优先生成成功率。这意味着AI可以在开始复杂思考之前就先把搜索任务派发出去,然后在等待搜索结果返回的时间里继续进行深入思考。

四、实验验证:理论照进现实

研究团队在四个不同的数据集上测试了DLLM-Searcher的性能,这些测试就像让一个学生参加不同科目的考试,全面检验学习成果。测试使用的数据集包括HotpotQA、2WikiMultiHopQA、Musique和Bamboogle,它们分别代表了不同类型的复杂多步推理任务。

在性能比较方面,DLLM-Searcher表现出了令人印象深刻的能力。与传统的检索增强生成方法相比,它在准确率方面有了显著提升。比如在HotpotQA数据集上,DLLM-Searcher达到了60.4%的准确率,而最好的传统方法ReARTeR只有46.8%。更重要的是,DLLM-Searcher与基于传统自回归语言模型的搜索代理相比也毫不逊色,在某些数据集上甚至略有优势。

效率提升方面的结果更加令人兴奋。使用P-ReAct模式的DLLM-Searcher在四个数据集上分别实现了14.77%、21.00%、22.08%和12.67%的推理时间减少,平均提速约15%。这种提速是在几乎不损失准确性的前提下实现的,有些情况下准确率甚至还有小幅提升。

研究团队还进行了一个特别有意思的对比实验。他们让传统的自回归模型也尝试先生成搜索指令再进行思考,结果发现这些模型的性能会显著下降。这证明了扩散模型的独特优势:它们能够利用全局信息来生成高质量的搜索指令,即使思考过程还没有完全展开。

五、真实案例:看AI如何"边想边搜"

为了更直观地展示DLLM-Searcher的工作过程,研究团队提供了一个具体的案例分析。当面对问题"1973年NFL赛季,职业碗比赛在哪个足球场举行,该足球场是杜鲁门体育综合体的一部分,还有什么其他体育场?"时,传统模型和DLLM-Searcher展现出了截然不同的处理方式。

传统的扩散模型在尝试回答这个问题时完全失败了。它生成的搜索指令格式错误,使用了错误的特殊标记,无法被搜索系统正确解析和执行。这就像一个人想要打电话但是拨错了号码,根本无法接通。

相比之下,经过训练的DLLM-Searcher表现得像一个熟练的研究员。在处理过程的第32步时,搜索指令已经完全生成并可以立即执行,而思考部分仍然处于生成过程中。系统生成的搜索指令格式完全正确,包含了合适的查询词组,能够被搜索引擎正确理解和处理。

更令人印象深刻的是生成顺序的可视化结果。传统方法必须按照固定顺序生成文本,而DLLM-Searcher的生成顺序显示了明显的并行化特征。搜索指令部分的标记在早期就被填充完成,而思考部分的内容则在后续步骤中逐步完善。这种灵活的生成顺序正是实现效率提升的关键。

六、技术细节:在复杂中寻找简单

虽然DLLM-Searcher的实现涉及诸多技术细节,但其核心思想可以用一个简单的烹饪比喻来理解。传统的AI就像一个新手厨师,必须严格按照菜谱的每一步执行:先洗菜,洗完菜再切菜,切完菜再开火,开火后再热锅,热锅后再放油。每个步骤都要等前一步完全完成。

而DLLM-Searcher就像一个经验丰富的大厨,能够合理安排工作流程。在洗菜的同时就可以让锅子预热,在切菜的时候可以准备调料,在等水烧开的间隙可以处理其他食材。这种并行处理不仅节省了时间,还能保证最终菜品的质量。

在技术实现层面,研究团队使用了SDAR模型作为基础架构,这是一个64块大小的块扩散语言模型。训练过程使用了专门的注意力掩码和学习率调度,确保模型能够学会正确的并行生成模式。在推理阶段,系统使用128个去噪步骤,块大小为128,温度参数设为1.0,这些参数的精心调整保证了生成质量和速度的最佳平衡。

七、局限性与未来展望

尽管DLLM-Searcher取得了显著成果,但研究团队也坦诚地指出了当前方法的一些局限性。就像任何新技术都有自己的适用范围一样,这项研究也存在需要进一步改进的地方。

目前最主要的限制是训练数据的规模。虽然研究团队使用了近4000个高质量训练样本,但相比于一些大规模语言模型动辄使用数百万甚至数十亿训练样本的情况,这个规模还相对较小。这意味着模型在面对某些特殊类型的问题时可能还无法达到最优性能。

另一个局限是当前系统主要针对搜索类任务进行了优化。虽然搜索是AI助手的一个重要功能,但实际应用中还需要处理计算、推理、创作等多种不同类型的任务。将P-ReAct模式扩展到其他类型的工具调用还需要进一步的研究。

在某些复杂度极高的推理任务上,DLLM-Searcher与最先进的传统模型相比仍有一定差距。特别是在Musique数据集上,系统的表现还有提升空间。这提示研究团队需要进一步加强模型的复杂推理能力。

尽管存在这些局限性,这项研究开启了一个全新的研究方向。未来可能的发展包括扩大训练规模、支持更多类型的工具调用、进一步优化并行化程度等。随着计算资源的不断增长和算法的持续改进,我们有理由期待这种"边思考边行动"的AI系统能够在更多场景中发挥作用。

说到底,DLLM-Searcher代表了人工智能向更加智能和高效方向发展的一个重要里程碑。它不仅解决了一个具体的技术问题,更重要的是展示了一种全新的思考方式:如何让AI系统更像人类专家那样工作,能够灵活调配注意力和资源,在有限的时间内完成复杂的任务。这种能力对于构建真正实用的AI助手来说至关重要,也为未来的人工智能研究指出了一个有前景的方向。

对于普通用户而言,这项技术的成熟意味着未来的AI助手将能够更快地回答复杂问题,提供更及时的帮助。无论是学生查找学习资料、工作者搜集业务信息,还是普通人寻求生活建议,都能从这种更高效的AI系统中获益。这正是科技进步的真正意义所在:让复杂的技术最终服务于每个人的日常生活。

Q&A

Q1:DLLM-Searcher与传统AI搜索助手有什么区别?

A:传统AI搜索助手必须按顺序工作,先思考再搜索,然后等待结果返回才能继续。DLLM-Searcher可以同时进行思考和搜索,在等待搜索结果的时候继续思考其他问题,就像经验丰富的厨师可以同时处理多个烹饪步骤一样,这使得整体处理速度提升了约15%。

Q2:扩散大语言模型相比普通语言模型有什么优势?

A:普通语言模型像读书一样必须从左到右逐字处理,而扩散大语言模型更像拼图游戏,可以同时在不同位置生成内容。这种并行处理能力让AI可以优先生成搜索指令,然后在等待搜索结果时继续完善思考内容,实现真正的多任务处理。

Q3:P-ReAct技术如何确保AI优先处理搜索任务?

A:P-ReAct使用两个关键技术:首先预先在文本中放置搜索指令的框架标记,就像先画好框框告诉AI在哪里填搜索命令;然后人为提高搜索区域内容的优先级分数,确保AI会优先完成这部分内容。通过这种方式,实现了近100%的搜索指令优先生成成功率。

热点
分享到朋友圈
收藏
收藏
评分
评论

综合评分:

我的评分

参与评论(0)

社区交流公约

暂无评论,快来抢沙发吧~
登录后参与评论
发布评论
用户社区交流公约

Xinstall 15天会员特权
Xinstall是专业的数据分析服务商,帮企业追踪渠道安装来源、裂变拉新统计、广告流量指导等,广泛应用于广告效果统计、APP地推与CPS/CPA归属统计等方面。
20羽毛
立即兑换
超级nice便签砖
超级超级超级奈斯!
1000羽毛
立即兑换
【新品】办公/外出两用静音充电小电扇
办公桌必备小电扇!
2000羽毛
立即兑换
热点
发表文章5138
确认要消耗 羽毛购买
一个模型两个漏斗做好拉新活动吗?
考虑一下
很遗憾,羽毛不足
我知道了

我们致力于提供一个高质量内容的交流平台。为落实国家互联网信息办公室“依法管网、依法办网、依法上网”的要求,为完善跟帖评论自律管理,为了保护用户创造的内容、维护开放、真实、专业的平台氛围,我们团队将依据本公约中的条款对注册用户和发布在本平台的内容进行管理。平台鼓励用户创作、发布优质内容,同时也将采取必要措施管理违法、侵权或有其他不良影响的网络信息。


一、根据《网络信息内容生态治理规定》《中华人民共和国未成年人保护法》等法律法规,对以下违法、不良信息或存在危害的行为进行处理。
1. 违反法律法规的信息,主要表现为:
    1)反对宪法所确定的基本原则;
    2)危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一,损害国家荣誉和利益;
    3)侮辱、滥用英烈形象,歪曲、丑化、亵渎、否定英雄烈士事迹和精神,以侮辱、诽谤或者其他方式侵害英雄烈士的姓名、肖像、名誉、荣誉;
    4)宣扬恐怖主义、极端主义或者煽动实施恐怖活动、极端主义活动;
    5)煽动民族仇恨、民族歧视,破坏民族团结;
    6)破坏国家宗教政策,宣扬邪教和封建迷信;
    7)散布谣言,扰乱社会秩序,破坏社会稳定;
    8)宣扬淫秽、色情、赌博、暴力、凶杀、恐怖或者教唆犯罪;
    9)煽动非法集会、结社、游行、示威、聚众扰乱社会秩序;
    10)侮辱或者诽谤他人,侵害他人名誉、隐私和其他合法权益;
    11)通过网络以文字、图片、音视频等形式,对未成年人实施侮辱、诽谤、威胁或者恶意损害未成年人形象进行网络欺凌的;
    12)危害未成年人身心健康的;
    13)含有法律、行政法规禁止的其他内容;


2. 不友善:不尊重用户及其所贡献内容的信息或行为。主要表现为:
    1)轻蔑:贬低、轻视他人及其劳动成果;
    2)诽谤:捏造、散布虚假事实,损害他人名誉;
    3)嘲讽:以比喻、夸张、侮辱性的手法对他人或其行为进行揭露或描述,以此来激怒他人;
    4)挑衅:以不友好的方式激怒他人,意图使对方对自己的言论作出回应,蓄意制造事端;
    5)羞辱:贬低他人的能力、行为、生理或身份特征,让对方难堪;
    6)谩骂:以不文明的语言对他人进行负面评价;
    7)歧视:煽动人群歧视、地域歧视等,针对他人的民族、种族、宗教、性取向、性别、年龄、地域、生理特征等身份或者归类的攻击;
    8)威胁:许诺以不良的后果来迫使他人服从自己的意志;


3. 发布垃圾广告信息:以推广曝光为目的,发布影响用户体验、扰乱本网站秩序的内容,或进行相关行为。主要表现为:
    1)多次发布包含售卖产品、提供服务、宣传推广内容的垃圾广告。包括但不限于以下几种形式:
    2)单个帐号多次发布包含垃圾广告的内容;
    3)多个广告帐号互相配合发布、传播包含垃圾广告的内容;
    4)多次发布包含欺骗性外链的内容,如未注明的淘宝客链接、跳转网站等,诱骗用户点击链接
    5)发布大量包含推广链接、产品、品牌等内容获取搜索引擎中的不正当曝光;
    6)购买或出售帐号之间虚假地互动,发布干扰网站秩序的推广内容及相关交易。
    7)发布包含欺骗性的恶意营销内容,如通过伪造经历、冒充他人等方式进行恶意营销;
    8)使用特殊符号、图片等方式规避垃圾广告内容审核的广告内容。


4. 色情低俗信息,主要表现为:
    1)包含自己或他人性经验的细节描述或露骨的感受描述;
    2)涉及色情段子、两性笑话的低俗内容;
    3)配图、头图中包含庸俗或挑逗性图片的内容;
    4)带有性暗示、性挑逗等易使人产生性联想;
    5)展现血腥、惊悚、残忍等致人身心不适;
    6)炒作绯闻、丑闻、劣迹等;
    7)宣扬低俗、庸俗、媚俗内容。


5. 不实信息,主要表现为:
    1)可能存在事实性错误或者造谣等内容;
    2)存在事实夸大、伪造虚假经历等误导他人的内容;
    3)伪造身份、冒充他人,通过头像、用户名等个人信息暗示自己具有特定身份,或与特定机构或个人存在关联。


6. 传播封建迷信,主要表现为:
    1)找人算命、测字、占卜、解梦、化解厄运、使用迷信方式治病;
    2)求推荐算命看相大师;
    3)针对具体风水等问题进行求助或咨询;
    4)问自己或他人的八字、六爻、星盘、手相、面相、五行缺失,包括通过占卜方法问婚姻、前程、运势,东西宠物丢了能不能找回、取名改名等;


7. 文章标题党,主要表现为:
    1)以各种夸张、猎奇、不合常理的表现手法等行为来诱导用户;
    2)内容与标题之间存在严重不实或者原意扭曲;
    3)使用夸张标题,内容与标题严重不符的。


8.「饭圈」乱象行为,主要表现为:
    1)诱导未成年人应援集资、高额消费、投票打榜
    2)粉丝互撕谩骂、拉踩引战、造谣攻击、人肉搜索、侵犯隐私
    3)鼓动「饭圈」粉丝攀比炫富、奢靡享乐等行为
    4)以号召粉丝、雇用网络水军、「养号」形式刷量控评等行为
    5)通过「蹭热点」、制造话题等形式干扰舆论,影响传播秩序


9. 其他危害行为或内容,主要表现为:
    1)可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好影响未成年人身心健康的;
    2)不当评述自然灾害、重大事故等灾难的;
    3)美化、粉饰侵略战争行为的;
    4)法律、行政法规禁止,或可能对网络生态造成不良影响的其他内容。


二、违规处罚
本网站通过主动发现和接受用户举报两种方式收集违规行为信息。所有有意的降低内容质量、伤害平台氛围及欺凌未成年人或危害未成年人身心健康的行为都是不能容忍的。
当一个用户发布违规内容时,本网站将依据相关用户违规情节严重程度,对帐号进行禁言 1 天、7 天、15 天直至永久禁言或封停账号的处罚。当涉及欺凌未成年人、危害未成年人身心健康、通过作弊手段注册、使用帐号,或者滥用多个帐号发布违规内容时,本网站将加重处罚。


三、申诉
随着平台管理经验的不断丰富,本网站出于维护本网站氛围和秩序的目的,将不断完善本公约。
如果本网站用户对本网站基于本公约规定做出的处理有异议,可以通过「建议反馈」功能向本网站进行反馈。
(规则的最终解释权归属本网站所有)

我知道了
恭喜你~答对了
+5羽毛
下一次认真读哦
成功推荐给其他人
+ 10羽毛
评论成功且进入审核!审核通过后,您将获得10羽毛的奖励。分享本文章给好友阅读最高再得15羽毛~
(羽毛可至 "羽毛精选" 兑换礼品)
好友微信扫一扫
复制链接