Mejore la interactividad de las aplicaciones bancarias mediante el uso de MongoDB Atlas Vector Search y modelos de lenguaje de gran tamaño.
Casos de uso: Gen AI, personalización
Industrias: Servicios financieros
Productos: MongoDB Atlas Vector Search
Socios: Amazon Bedrock
Resumen de la solución
Con la banca interactiva, los clientes de servicios financieros interactúan con plataformas digitales que anticipan y satisfacen sus necesidades en tiempo real.
Este enfoque utiliza tecnologías de Inteligencia Artificial Generativa (IAG), como chatbots y asistentes virtuales, para optimizar las operaciones bancarias básicas. Los bancos pueden mejorar la experiencia del cliente aprovechando la IAG para ofrecer interacciones personalizadas y contextualizadas a través de canales digitales de autoservicio. Desde chatbots con IA que resuelven consultas al instante hasta análisis predictivos que ofrecen asesoramiento financiero personalizado, la banca interactiva crea una experiencia más atractiva e intuitiva para los usuarios.
Al integrar asesores basados en IA en la experiencia de banca digital, los bancos pueden ofrecer respuestas instantáneas y relevantes. Esto se traduce en interacciones más fluidas y fáciles de usar, en las que los clientes se sienten respaldados.
Arquitecturas de Referencia
En esta solución, MongoDB y Amazon Bedrock almacenan documentación bancaria, como términos y condiciones, como incrustaciones vectorizadas dentro de los documentos de MongoDB. La siguiente figura muestra la arquitectura de esta solución:
Figura 1. Arquitectura bancaria interactiva impulsada por IA
MongoDB actúa como una capa de almacenamiento de datos entre la capa de tecnología de IA y la capa de aplicación. Esto optimiza la gestión de datos al almacenar conjuntamente datos estructurados y no estructurados, lo que permite a las organizaciones operar con un conjunto de datos más unificado. Al eliminar los silos de datos, las empresas pueden ofrecer experiencias de cliente más consistentes en todas sus plataformas digitales.
Enfoque del modelo de datos
Esta solución aprovecha la flexibilidad de MongoDB para almacenar fragmentos de texto de archivos PDF y sus incrustaciones en el mismo documento. Esto simplifica las consultas y garantiza un alto rendimiento sin necesidad de tecnologías ni funciones adicionales. Esto permite a las empresas crear aplicaciones enriquecidas con IA en la moderna plataforma de bases de datos multinube de MongoDB, unificando datos en tiempo real, no estructurados y optimizados con IA.
La siguiente imagen muestra un ejemplo de los datos utilizados en esta solución:
Figura 2. Documento único con fragmentos de texto y sus incrustaciones.
Construir la solución
Esta solución tiene los siguientes repositorios de GitHub:
Para ejecutar las soluciones, consulte la README archivos en los repositorios.
La arquitectura tiene el siguiente flujo de trabajo:
1. Preprocesamiento de documentos
En primer lugar, los datos no estructurados basados en texto, como los PDF de Términos y Condiciones, se procesan y se transforman en fragmentos mediante la técnica de ventana deslizante. Esto garantiza la conservación de los datos de transición entre fragmentos para mantener la continuidad y el contexto.
Una vez transformados los datos no estructurados en fragmentos vectorizados, se pasan por un modelo de incrustación para generar incrustaciones vectoriales. Puede seleccionar el modelo de incrustación según sus necesidades. Esta demostración utiliza el modelo cohere.embed-english-v3 de Cohere en AWS Bedrock.
Tanto los fragmentos como sus vectores correspondientes se almacenan en MongoDB Atlas. Esta demostración utiliza el framework SuperDuper de Python para integrar modelos y flujos de trabajo de IA con MongoDB.
2. Búsqueda y consulta de vectores
Una vez que los fragmentos y las incrustaciones se almacenan en MongoDB, puede utilizar MongoDB Atlas Vector Search para realizar consultas semánticas.
3. Uso del chatbot
El chatbot de esta solución funciona con MongoDB Atlas Vector Search y un sistema preentrenado. LLM. Cuando un usuario introduce una pregunta, esta se vectoriza y se utiliza MongoDB Atlas Vector Search para encontrar documentos con incrustaciones similares.
Tras recuperar los documentos relevantes, estos datos se envían a un LLM. Esta demostración utiliza Claude de Anthropic, disponible en Amazon Bedrock. El LLM utiliza los documentos recuperados como contexto para generar una respuesta más completa y precisa. Este proceso se conoce como generación aumentada por recuperación (RAG). RAG mejora la capacidad del chatbot para proporcionar respuestas precisas combinando la búsqueda semántica con la generación de modelos de lenguaje.
Figura 3. Chatbot de Leafy Bank en acción
Aprendizajes clave
Los chatbots mejoran la experiencia del usuario: las tecnologías impulsadas por IA, como los chatbots, simplifican las interacciones con los clientes al proporcionar respuestas instantáneas y adaptadas al contexto, lo que permite a los usuarios navegar por las operaciones bancarias de forma independiente sin tener que navegar por términos y condiciones complejos.
Atlas Vector Search permite la búsqueda en PDF: al utilizar la fragmentación de datos y Atlas Vector Search, MongoDB permite realizar consultas eficientes en documentación legal densa, lo que garantiza que los clientes reciban respuestas precisas y ricas en contexto.
MongoDB permite la integración de tecnología: la integración de MongoDB con Vector Search, LLM y la infraestructura de búsqueda dedicada permite a las instituciones financieras escalar soluciones de IA, mejorando el rendimiento y la capacidad de respuesta a medida que crecen las demandas de los clientes.
Autores
Luis Pazmino Díaz, director de FSI EMEA, MongoDB
Ainhoa Múgica, Especialista Sénior, Soluciones Industriales, MongoDB
Pedro Bereilh, Especialista en Soluciones Industriales de MongoDB
Andrea Alaman Calderón, Especialista Sénior, Soluciones Industriales, MongoDB