
一个 AI 答案引擎,让您像 (Perplexity) Pro 一样处理复杂的查询搜索
像专业人士一样搜索
“知识始于此处。”Perplexity 简洁的座右铭反映了其使命,即通过提供精确的知识作为 AI“答案引擎”来节省用户的时间。
最近,Perplexity 团队推出了 Pro Search,这项功能可以使用多步骤推理来回答复杂、细致入微的问题。与 Perplexity 的快速搜索(专为即时问题而设计)不同,这种高级模式可以帮助学生、研究人员和企业获得针对最复杂和详细问题的精确、相关的响应。
得益于 Perplexity 团队在打造用户体验和代理架构方面的周全考虑,即使在增加系统复杂性的情况下,他们也无需在速度和准确性之间妥协。
当传统搜索力不从心时
传统的搜索引擎可能难以回答需要连接多个想法或提取详细信息的复杂查询。例如,搜索“LangChain 创始人的教育背景是什么?”不仅需要识别创始人,还需要研究每位创始人的背景。
这正是 Perplexity Pro Search 的闪光点。他们的 AI 代理分解多步骤问题,以提供组织良好、基于事实的答案。用户无需筛选无数页搜索结果,即可从 Perplexity Pro Search 获得直接响应,总结最相关的信息。
事实上,在过去的几个月中,随着更多用户发现 Perplexity Pro Search 能够快速高效地回答棘手问题,Perplexity Pro Search 的查询搜索量增长了 50% 以上。
逐步规划和执行

Perplexity Pro 的 AI 代理将规划与执行分离,这为多步骤搜索带来了更好的结果。
当用户提交查询时,AI 会创建一个计划——回答该问题的逐步指南。对于计划中的每个步骤,都会生成并执行一系列搜索查询。这些步骤按顺序执行,并且在执行后续步骤时会传递先前步骤的结果。这些搜索查询返回文档列表,这些文档被分组,然后过滤到最相关的文档。排名靠前的文档随后会传递给 LLM 以生成最终答案。
Perplexity Pro Search 还支持专门的工具,例如代码解释器(允许用户即时运行计算或分析文件)以及数学评估工具(如 Wolfram Alpha)。
平衡提示长度以产生快速、准确的响应
Perplexity 使用各种语言模型来分解网络搜索任务,让用户可以灵活地选择最适合他们尝试解决问题的模型。由于每个语言模型处理和解释提示的方式不同,Perplexity 在后端定制了针对每个模型的提示。
为了引导模型的行为,Perplexity 利用了少样本提示示例和思维链提示等技术。少样本示例允许工程师引导搜索代理的行为。在构建少样本示例时,保持提示长度的适当平衡至关重要。制定语言模型应遵循的规则也需要经过多轮迭代。
在 Perplexity 领导这项工作的工程师 William Zhang 分享道
“模型很难遵循非常复杂提示的指令。大部分迭代都包括在每次提示更改后询问查询,并检查不仅输出有意义,而且中间步骤也合理。”
通过保持系统提示中的规则简单而精确,Perplexity 降低了模型理解任务和生成相关响应的认知负荷。
这款产品智能多少?
在发布 Pro Search 升级之前,Perplexity 依赖于答案质量指标和内部试用。该团队通过在各种查询上测试 Pro Search,并将其答案与其他 AI 产品并排比较,进行了手动评估。检查中间步骤的能力对于在发布给用户之前帮助识别常见错误也至关重要。
为了扩大评估规模,Perplexity 收集了大量问题,并使用 LLM-as-a-Judge 对答案进行排名。此外,还对用户进行了 A/B 测试,以衡量他们对产品不同可能配置的反应,例如不同模型在延迟和成本之间的权衡。在 Perplexity 团队对答案质量和用户体验方面都对产品体验感到满意后,该产品就可以发布了。
为用户设计更好的等待体验
该团队面临的最大挑战之一是设计 Perplexity Pro Search 用户界面。Perplexity 发现,如果产品能够显示中间进度,用户更愿意等待结果。
这促使他们开发了一个交互式 UI,可以逐步显示计划的执行情况。该团队迭代了可扩展部分,允许用户单击单个步骤以查看有关搜索的更多详细信息。他们还引入了悬停在引文上以查看来源片段的功能,用户可以单击这些片段在新窗口中打开。

Zhang 强调了他们设计背后的指导理念
“在用户真正好奇之前,你不想用太多信息来压倒他们。然后,你激发他们的好奇心。”
该团队希望确保用户界面在简洁性和实用性之间找到最佳平衡,这需要多个迭代周期。
以好奇心的速度搜索
Perplexity 的 Pro Search 代表了 AI 驱动的搜索和问答方面的重大进步。通过将复杂查询分解为可管理的步骤并提供透明、交互式的界面,Perplexity 创建了一个强大的工具,可以以好奇心的速度工作。
正如 Zhang 强调的那样
“重要的是,我们在设计产品时要以用户为中心,因为我们的用户对 AI 系统的熟悉程度各不相同。有些人是专家,而另一些人则是 AI 搜索界面的新手——因此我们必须确保为每个人创造积极的体验,无论他们的专业水平如何。”
他们的开发过程为其他构建 AI 代理的人提供了宝贵的经验教训
1. 在进行更复杂的研究时,让 LLM 执行显式的规划步骤
2. 速度和答案质量对于创造良好的用户体验至关重要。使用动态 UI 反馈让用户保持参与,而不是让他们等待。
从最前沿的公司发现更多突破性的 AI 代理故事。
准备好开始更快地交付可靠的 GenAI 应用程序了吗?
LangChain、LangSmith 和 LangGraph 是从原型到生产的关键参考架构组成部分。