Docs 菜单
Docs 主页
/
MongoDB 阿特拉斯
/

将 Vector Search 与 AI 技术集成

在此页面上

  • 框架
  • LangChain
  • LlamaIndex
  • Semantic Kernel
  • 干草堆
  • Spring AI
  • 服务
  • Amazon Bedrock 知识库
  • API 资源

您可以通过流行的 AI 提供商和 LLM通过其标准API使用 Atlas Vector Search。 MongoDB 和合作伙伴还提供特定的产品集成,帮助您在 RAG和 AI 支持的应用程序中利用 Atlas Vector Search。

本页重点介绍 MongoDB 和合作伙伴开发的著名 AI 集成。有关集成和合作伙伴服务的完整列表,请参阅探索 MongoDB 合作伙伴生态系统。

您可以将 Atlas Vector Search 与以下开源框架集成,以在 Atlas 中存储自定义数据,并使用 Atlas Vector Search 实施RAG

LangChain 是一个通过使用“链”简化 LLM 应用程序创建的框架,“链”是特定于 LangChain 的组件,可以组合在一起以用于各种使用案例,包括 RAG

要开始使用,请参阅以下教程:

LlamaIndex 是一个框架,可简化将自定义数据源连接到 LLM 的方式。它提供了多种工具来帮助您为RAG应用程序加载和准备向量嵌入。

要开始使用,请参阅开始使用 LlamaIndex 集成。

Microsoft 语义内核 是一个 SDK,可让您将各种 AI 服务与您的应用程序相结合。您可以将语义内核用于各种使用案例,包括RAG

要开始使用,请参阅以下教程:

干草堆 是一个使用 LLM 、嵌入模型、向量搜索等功能构建自定义应用程序的框架。它支持问答和 RAG 等使用案例。

要开始使用,请参阅开始使用 Haystack 集成。

Spring AI 是一个应用程序框架,允许您将 Spring 设计原则应用于 AI 应用程序。您可以将 Spring AI 用于各种使用案例,包括语义搜索和 RAG

要开始使用,请参阅开始使用 Spring AI 集成。

您还可以将 Atlas Vector Search 与以下 AI 服务集成。

Amazon 基岩版 是一项用于构建生成式 AI 应用程序的完全托管服务。您可以将 Atlas Vector Search 集成为 知识库 用于 Amazon BedRock 在 Atlas 中存储自定义数据并实施 RAG

要开始使用,请参阅开始使用 Amazon Bedrock 知识库集成。

在使用 Atlas Vector Search 的 AI 集成进行开发时,请参阅以下API资源:

后退

本地 RAG

来年

LangChain