Docs 菜单
Docs 主页
/
Atlas
/

将 Vector Search 与 AI 技术集成

您可以通过标准 API 将 Atlas Vector Search 与流行的 AI 提供程序和 LLM 一起使用。MongoDB 和合作伙伴还提供特定的产品集成,以帮助您在 RAG 和 AI 驱动的应用程序中利用 Atlas Vector Search。

本页重点介绍 MongoDB 及其合作伙伴开发的著名 AI 集成。有关集成和合作伙伴服务的完整列表,请参阅探索 MongoDB 合作伙伴生态系统

您可以将 Atlas Vector Search 与以下开源框架集成,以在 Atlas 中存储自定义数据,并使用 Atlas Vector Search 实施RAG

LangChain 是一个通过使用“链”简化 LLM 应用程序创建的框架,“链”是特定于 LangChain 的组件,可以组合在一起以用于各种使用案例,包括 RAG

要开始使用,请参阅以下资源:

LangGraph 是 LangChain 生态系统中的一个专业框架,专门用于构建 AI 代理和复杂的多代理工作流程。LangGraph 的图形化方法允许您动态确定应用程序的执行路径,从而支持高级代理应用程序和使用案例。它还支持持久性、流媒体和内存等功能。

要开始使用,请参阅以下资源:

LangChainGo 是一个框架,简化了在 Go 中创建 LLM 应用程序的过程。LangChainGo 将 LangChain 的功能整合到 Go 生态系统中。您可以将 LangChainGo 用于各种用例,包括语义搜索和 RAG

要开始使用,请参阅 LangChainGo 集成入门

LangChain4j 是一个框架,简化了在 Java 中创建 LLM 应用程序的过程。LangChain4j 结合了 LangChain、Haystack、LlamaIndex 和其他来源的概念和功能。您可以将 LangChain4j 用于各种用例,包括语义搜索和 RAG

要开始,请参阅 LangChain4j 集成入门指南

LlamaIndex 是一个框架,可简化将自定义数据源连接到 LLM 的方式。它提供了多种工具来帮助您为RAG应用程序加载和准备向量嵌入。

要开始使用,请参阅开始使用 LlamaIndex 集成。

Microsoft 语义内核 是一个 SDK,可让您将各种 AI 服务与您的应用程序相结合。您可以将语义内核用于各种使用案例,包括RAG

要开始使用,请参阅以下教程:

Haystack 是一个框架,用于通过 LLM 、嵌入模型、矢量搜索等来构建自定义应用程序。它支持诸如问答和 RAG 之类的应用场景。

要开始使用,请参阅 Haystack Integration 入门

Spring AI 是一个应用程序框架,允许您将 Spring 设计原则应用到您的 AI 应用程序中。您可以将 Spring AI 用于各种用例,包括语义搜索和 RAG

要开始使用,请参阅 Spring AI 集成入门。

您还可以将Atlas Vector Search与以下企业平台集成。

Amazon Bedrock 是一个完全托管的平台,用于构建生成式AI应用程序。您可以将Atlas Vector Search集成为Amazon Bedrock 的知识库,以便在Atlas中存储自定义数据并实现RAG

要开始使用,请参阅 Amazon Bedrock 知识库集成入门。

Vertex AI 是 Google Cloud 提供的平台,用于构建和部署 AI 应用程序和代理。Vertex AI 平台包括 Google 提供的多种工具和预训练模型,您可以将它们与 Atlas 一起用于 RAG 和其他用例,例如自然语言查询。

要开始使用,请参阅将 Atlas 与 Google Vertex AI 集成。

后退

使用 Voyage AI嵌入进行自动量化

获得技能徽章

免费掌握“RAG with MongoDB”!

了解详情

在此页面上