Mejora la interactividad de las aplicaciones bancarias usando MongoDB Atlas búsqueda vectorial y grandes modelos de lenguaje.
caso de uso: Gen IA, Personalización
Industrias: Servicios financieros
Productos: Búsqueda Vectorial de MongoDB Atlas
Socios: Amazon Bedrock
Resumen de la solución
Con la banca interactiva, los clientes de servicios financieros se involucran con plataformas digitales que anticipan y satisfacen sus necesidades en tiempo real.
Este enfoque utiliza tecnologías de Inteligencia Artificial Generativa (Gen AI), como chatbots y asistentes virtuales para mejorar las operaciones bancarias básicas. Los bancos pueden mejorar la experiencia del cliente aprovechando Gen AI para proporcionar interacciones personalizadas y contextuales a través de canales digitales de autoservicio. Desde chatbots con IA que resuelven queries instantáneamente hasta análisis predictivos que ofrecen consejo financiero personalizado, la banca interactiva genera una experiencia bancaria más atractiva e intuitiva para los usuarios.
Al integrar asesores impulsados por IA en la experiencia de banca digital, los bancos pueden ofrecer respuestas instantáneas y relevantes. Esto da como resultado interacciones más fluidas y fáciles de usar en las que los clientes se sienten respaldados.
Arquitecturas de Referencia
En esta solución, MongoDB y Amazon Bedrock almacenan documentación bancaria, como términos y condiciones, en forma de incrustaciones vectorizadas dentro de documentos de MongoDB. La siguiente figura muestra la arquitectura de esta solución:
Figura 1. Arquitectura bancaria interactiva impulsada por IA
MongoDB actúa como una capa de almacenamiento de datos entre la capa de tecnología de IA y la capa de aplicación. Esto agiliza la gestión de datos al almacenar datos no estructurados y estructurados juntos y permitir que las organizaciones operen con un conjunto de datos más unificado. Al desglosar los silos de datos, las empresas pueden ofrecer experiencias de cliente más coherentes a través de sus plataformas digitales.
Enfoque de modelo de datos
Esta solución utiliza la flexibilidad de MongoDB para almacenar tanto fragmentos de texto de PDFs como sus incrustaciones dentro del mismo documento. Esto simplifica las queries y garantiza un alto rendimiento sin necesidad de tecnologías o funcionalidades adicionales. Esto permite a las empresas desarrollar aplicaciones enriquecidas con IA en la moderna plataforma de bases de datos multi-nube de MongoDB, unificando datos en tiempo real, no estructurados y mejorados con IA.
La imagen a continuación muestra un ejemplo de los datos utilizados en esta solución:
Figura 2. Documento único con fragmentos de texto y sus incrustaciones.
Compilar la solución
Esta solución tiene los siguientes repositorios de GitHub:
Para ejecutar las soluciones, consulte la README archivos en los repositorios.
La arquitectura sigue el siguiente flujo de trabajo:
1. Preprocesamiento de documentos
En primer lugar, los datos no estructurados basados en texto, como los Términos y Condiciones en PDF, se procesan y se transforman en fragmentos utilizando la técnica de ventana deslizante. Esto garantiza que los datos de transición entre fragmentos se conserven para mantener la continuidad y el contexto.
Una vez que los datos no estructurados se han transformado en fragmentos vectorizados, se pasan por un modelo de incrustación para generar incrustaciones vectoriales. Puedes seleccionar el modelo de embedding según tus requisitos. Esta demostración utiliza el modelo cohere.embed-english-v3 de Cohere en AWS Bedrock.
Tanto los fragmentos como sus correspondientes vectores se almacenan en MongoDB Atlas. Esta demostración utiliza el super flexible framework SuperDuper de Python para integrar modelos y flujos de trabajo de IA con MongoDB.
2. Búsqueda vectorial y Querying
Una vez que los fragmentos y las incrustaciones estén almacenados en MongoDB, puedes utilizar MongoDB Atlas búsqueda vectorial para consultas semánticas.
3. Uso del chatbot
El chatbot de esta solución está impulsado por MongoDB Atlas y una búsqueda vectorial y un modelo preentrenado LLM. Cuando un usuario introduce una pregunta, esta se vectoriza y MongoDB Atlas búsqueda vectorial se utiliza para encontrar documentos con embeddings similares.
Tras recuperar los documentos relevantes, estos datos se envían a un LLM. Esta demostración utiliza Claude de Anthropic, disponible en Amazon Bedrock. El LLM utiliza los documentos recuperados como contexto para generar una respuesta más completa y precisa. Este proceso se conoce como generación aumentada por recuperación (RAG). RAG mejora la capacidad del chatbot para proporcionar respuestas precisas combinando la búsqueda semántica con la generación de modelos de lenguaje.
Figura 3. Chatbot de Leafy Bank en acción
Lecciones clave
Los chatbots mejoran la experiencia del usuario: Tecnologías impulsadas por IA, como los chatbots, simplifican las interacciones de los clientes proporcionando respuestas instantáneas y contextualizadas, permitiendo a los usuarios navegar por las operaciones bancarias de forma independiente sin navegar por términos y condiciones complejos.
Atlas Vector Search habilita la búsqueda en PDF: Usando la segmentación de datos y la búsqueda vectorial de Atlas, MongoDB permite consultas eficientes de documentación legal densa, asegurando que los clientes reciban respuestas precisas y ricas en contexto.
MongoDB permite la integración de tecnología: la integración de MongoDB con Vector Search, LLM y la infraestructura de búsqueda dedicada permite a las instituciones financieras escalar soluciones de IA, mejorando el rendimiento y la capacidad de respuesta a medida que crecen las demandas de los clientes.
Autores
Luis Pazmino Diaz, FSI Principal EMEA, MongoDB
Ainhoa Múgica, Especialista Principal, Soluciones Industriales, MongoDB
Pedro Bereilh, Especialista, Soluciones Industriales, MongoDB
Andrea Alaman Calderón, Especialista Senior, Soluciones de Industria, MongoDB