Docs 菜单
Docs 主页
/ /

将Atlas与 Google Vertex AI集成

您可以将 Vertex AI与MongoDB Atlas集成,以构建和部署AI应用程序。 The Vertex AI平台包含 Google 提供的多种工具和预训练模型,您可以将它们与Atlas一起用于 RAG 和其他使用案例,例如 自然语言查询。

Vertex AI借助MongoDB Atlas支持各种使用案例:

  • 将 Google 的基础模型与MongoDB Vector Search 结合使用,构建AI应用程序并实现RAG。要学习;了解详情,请参阅 Google 模型。

  • 使用 Vertex AI 扩展程序来自定义 Google 模型与 Atlas 的交互方式。如要开始,请参阅使用 Vertex AI 扩展进行自然语言 MongoDB 查询。

  • 使用 Vertex AI Agent Engine 构建和扩展 AI 代理,并将 Atlas 作为数据库。如要开始,请参阅使用 Vertex AI Agent Engine 和 Atlas 构建 AI 代理。

以下示例应用程序演示了如何将 Vertex AI与Atlas for RAG 结合使用。该应用程序包含一个界面,允许您上传 PDF 文档并使用MongoDB Vector Search 和 Vertex AI模型回答有关 PDF 数据的问题。

在开始本教程之前,您必须具备以下内容:

  • 一个 Atlas 集群,运行 MongoDB 6.0.11、7.0.2 或更高版本。请确保您的 IP 地址包含在 Atlas 项目的访问列表中。

  • 访问已启用 Vertex AI API 的 Google Cloud 项目。如要了解更多信息,请参阅 Google Cloud 文档。

请按照 Google Cloud 文档中的步骤,在您的 Google Cloud 控制台中创建并启动虚拟机 (VM) 实例。请使用以下设置配置 Google Cloud 虚拟机实例,并对其余选项使用默认设置:

选项
配置

名称

vertexai-chatapp

地区和可用区

您物理位置附近的任何 Google Cloud 区域和可用区

机器配置

  • Series:高内存

  • Machine Type: n1-standard-1

启动盘

Size:100 GB

访问权限

允许完全访问所有云 API

防火墙

全选

网络

对于外部 IP 范围,指定 Reserve external static IP address

本部分加载一个示例应用程序,您可使用该应用程序在Atlas中转换和存储PDF,并使用MongoDB Vector Search查询。要在Google Cloud Platform虚拟机实例上部署并运行应用程序,请完成以下步骤:

1

您必须在Atlas 集群中的 vertexaiApp.chat-vec命名空间上创建一个名为 vector_index 的MongoDB Vector Search索引,才能启用对向量嵌入的查询。使用默认设置并指定 768 维度。

要了解详情,请参阅如何为向量搜索建立字段索引

2

使用 SSH 连接到虚拟机实例。在环境中,克隆包含应用程序代码的 GitHub 存储库:

git clone https://github.com/mongodb-partners/MongoDB-VertexAI-Qwiklab.git

注意

要学习;了解有关该应用程序的更多信息,请参阅存储库。

3

运行以下命令以安装依赖项:

sudo apt update
sudo apt install python3-pip
sudo apt install git
cd MongoDB-VertexAI-Qwiklab
pip3 install -r requirements.txt
4
streamlit run app.py
5

使用命令输出中显示的端口在 Web 浏览器中打开 VM 的公共 IP 地址。

6

在应用程序中,上传您想要搜索的 PDF 数据。

该存储库包含一个可供您使用的示例 PDF 文件。该应用程序将数据分成批处理,使用 Vertex AI 的嵌入模型将每个数据块转换为向量嵌入,并将这些数据导入您的 Atlas 集合。

提示

上传文件后,如果您使用的是Atlas ,则可以导航到Atlas 用户界面中的 vertexaiApp.chat-vec命名空间来验证向量嵌入。

7
  1. 在应用程序中,单击 Q&A 标签页。

  2. 在搜索栏中输入问题,然后按 Enter

    该应用程序通过运行集合运行向量搜索查询检索最相关的文档来执行RAG,然后使用来自 Vertex AI的聊天模型生成上下文感知响应。

后退

故障排除

在此页面上