Docs 菜单
Docs 主页
/
MongoDB Atlas
/

将 Vector Search 与 AI 技术相集成

在此页面上

  • 关键概念
  • 框架
  • LangChain
  • LlamaIndex
  • 语义内核
  • 服务
  • Amazon 基岩知识库
  • API 资源

您可以通过流行的 AI 提供商和 LLM通过其标准API使用 Atlas Vector Search。 MongoDB 和合作伙伴还提供特定的产品集成,帮助您在生成式 AI 和 AI 驱动的应用程序中利用 Atlas Vector Search。

本页重点介绍 MongoDB 和合作伙伴开发的著名 AI 集成。有关集成和合作伙伴服务的完整列表,请参阅探索 MongoDB 合作伙伴生态系统。

大型语言模型(LLM)

您可以将 Atlas Vector Search 与法学硕士法学硕士框架集成,以构建人工智能驱动的应用程序。 使用LLM进行开发时,您可能会遇到以下限制:

  • 过时数据: LLM在特定时间点之前的静态数据集上进行训练。

  • 无权访问本地数据:法学硕士无权访问本地或个人数据。

  • 幻觉:法学硕士有时会生成不准确的信息。

检索增强生成 (RAG)

检索增强生成 (RAG) 是一种适用于LLM应用程序的架构,旨在解决这些限制。 在RAG中,您可以执行以下操作:

  1. 将自定义数据存储在矢量数据库中。

  2. 使用向量搜索从向量数据库中检索语义相似的文档。 这些文档扩充了法学硕士可以访问的现有培训数据。

  3. 提示LLM法学硕士使用这些文档作为上下文,以生成更明智、更准确的回复。

要了解更多信息,请参阅什么是检索增强生成 (RAG)?。

您可以将 Atlas Vector Search 与以下开源框架集成,以在 Atlas 中存储自定义数据,并使用 Atlas Vector Search 实施RAG

LangChain 是一个通过使用“链”简化 LLM 应用程序创建的框架,“链”是特定于 LangChain 的组件,可以组合在一起以用于各种使用案例,包括 RAG

要开始使用,请参阅以下教程:

LlamaIndex 是一个框架,可简化将自定义数据源连接到 LLM 的方式。它提供了多种工具来帮助您为 RAG 应用程序加载和准备向量嵌入。

要开始使用,请参阅开始使用 LlamaIndex 集成。

Microsoft 语义内核 是一个 SDK,可让您将各种 AI 服务与您的应用程序相结合。您可以将语义内核用于各种使用案例,包括 RAG

要开始使用,请参阅语义内核集成入门。

您还可以将 Atlas Vector Search 与以下 AI 服务集成。

Amazon 基岩版 是一项用于构建生成式 AI 应用程序的完全托管服务。您可以将 Atlas Vector Search 集成为 知识库 用于 Amazon BedRock 在 Atlas 中存储自定义数据并实施 RAG

要开始使用,请参阅开始使用 Amazon Bedrock 知识库集成。

在使用 Atlas Vector Search 的 AI 集成进行开发时,请参阅以下API资源:

← 如何执行混合搜索