您有何期待?
测试指南电子书
先睹为快,了解我们的测试指南内容
获取电子书









构建和测试 LLM 应用的工程团队面临着独特的挑战。LLM 的非确定性性质使得审查自然语言响应的风格和准确性变得困难,需要使用新的成功指标进行稳健的测试。
本指南将帮助您为测试过程增加严谨性,以便您可以更快地迭代,而不会冒着令人尴尬或有害的回归风险。
跨产品生命周期进行测试的技巧
构建数据集和定义测试指标的方法
用于评估 RAG 和 Agent 的模板,附带视觉示例
首席软件工程师架构师
“LangSmith 让策划和维护高信号 LLM 测试套件变得前所未有的容易。借助 LangSmith,我们发现生产系统性能提高了 43%,增强了高管对在新机遇中投资数百万美元的信心。”
数据科学、AI 和 ML 工程副总裁
“LangSmith 在加速我们 AI 的采用和增强我们识别和解决影响应用程序可靠性的问题的能力方面发挥了重要作用。借助 LangSmith,我们还可以创建自定义反馈循环,将我们的 AI 应用程序准确率提高 40%,并将部署时间缩短 50%。”
ML 平台工程主管
“在使用 LangSmith 之前,我们没有系统的方法来提高 LLM 应用程序的质量。通过将 LangSmith 集成到我们的应用程序框架中,我们现在有了一个统一的方法来基准测试 200 多个应用程序的提示和模型。这支持了我们在 Grab 的数据驱动文化,并使我们能够持续改进我们基于 LLM 的解决方案。”