You can integrate Vertex AI with MongoDB Atlas to build and deploy AI applications. The Vertex AI platform includes several tools and pre-trained models from Google that you can use with Atlas for RAG and other uses cases such as natural language querying.
Overview
Vertex AI permite una variedad de casos de uso con MongoDB Atlas:
Use foundation models from Google with MongoDB Vector Search to build AI applications and implement RAG. To learn more, see Google models.
Usa las extensiones de Vertex AI para personalizar la interacción de los modelos de Google con Atlas. Para empezar, consulta "Usar extensiones de Vertex AI para consultas de lenguaje natural en MongoDB".
Utilice Vertex AI Agent Engine para crear y escalar agentes de IA con Atlas como base de datos. Para comenzar, consulte Crear agentes de IA con Vertex AI Agent Engine y Atlas.
Empezar
The following sample application demonstrates how to use Vertex AI with Atlas for RAG. The application includes an interface that allows you to upload PDF documents and answer questions on the PDF data by using MongoDB Vector Search and Vertex AI models.
Requisitos previos
Antes de comenzar este tutorial, debes tener lo siguiente:
Un clúster de Atlas que ejecuta la versión 6.0.11, 7.0.2 o posterior de MongoDB. Asegúrese de que su dirección IP esté incluida en la lista de acceso de su proyecto Atlas.
Acceso a un proyecto de Google Cloud con la API Vertex AI habilitada. Para obtener más información, consulta la documentación de Google Cloud.
Crear una instancia de Google Cloud Compute
Sigue los pasos en la documentación de Google Cloud para crear e iniciar una instancia de máquina virtual (VM) en tu consola de Google Cloud. Configura la instancia de Google Cloud VM con la siguiente configuración y usa la configuración por defecto para el resto de las opciones:
Opción | Configuración |
|---|---|
Nombre |
|
Región y Zona | Cualquier región y zona de Google Cloud cercana a su ubicación física |
Configuración de la máquina |
|
Disco de arranque | Size: 100 GB |
Acceso | Permitir acceso completo a todas las API de la nube |
Firewall | Seleccionar todo |
Gestión de redes | For the External IP range, specify Reserve external static IP address |
Implementar y ejecutar la aplicación
Esta sección carga una aplicación de ejemplo que puede usar para transformar y almacenar archivos PDF en Atlas y consultarlos mediante MongoDB Vector Search. Para implementar y ejecutar la aplicación en su instancia de Google Cloud VM, siga estos pasos:
Crear un índice de búsqueda vectorial de MongoDB.
Debe crear un índice de búsqueda vectorial de MongoDB llamado vector_index en el espacio de nombres vertexaiApp.chat-vec de su clúster Atlas para habilitar las consultas en sus incrustaciones vectoriales. Utilice la configuración predeterminada y especifique las dimensiones 768.
Para obtener más información, consulte Cómo indexar campos para la búsqueda vectorial.
Obtenga la aplicación de muestra.
Conéctese a la instancia de máquina virtual mediante SSH. En el entorno, clone el repositorio de GitHub que contiene el código de la aplicación:
git clone https://github.com/mongodb-partners/MongoDB-VertexAI-Qwiklab.git
Nota
Para obtener más información sobre la aplicación, consulte el repositorio.
Sube documentos PDF utilizando la interfaz de la aplicación.
En la aplicación, cargue los datos PDF que desea buscar.
El repositorio incluye un archivo PDF de muestra que puedes usar. La aplicación fragmenta los datos en lotes, convierte cada fragmento en incrustaciones vectoriales mediante un modelo de incrustación de Vertex AI e incorpora estos datos a tu colección Atlas.
Tip
Después de cargar el archivo, si está usando Atlas, puede verificar sus incrustaciones vectoriales navegando al espacio de nombres en vertexaiApp.chat-vec la interfaz de usuario de Atlas.
Responda preguntas sobre sus datos.
En la aplicación, haga clic en la pestaña Q&A.
Ingrese una pregunta en la barra de búsqueda y luego presione Enter.
La aplicación realiza la operación de RAG ejecutando una búsqueda vectorial en tu colección para recuperar los documentos más relevantes y luego utiliza un modelo de chat de Vertex AI para generar una respuesta contextual.