Descubra cómo combinar MongoDB Atlas Vector Search y Large Language Models (LLMs) para agilizar el proceso de ajuste de reclamaciones.
caso de uso: IA generativa, Gestión de contenido
Industrias: Seguros, Finanzas, Manufactura y Movilidad, Comercio Minorista
Productos: MongoDB Atlas, Búsquedavectorialde MongoDB Atlas
emparejar: LangChain
Resumen de la solución
Uno de los mayores desafíos para los ajustadores de siniestros es la agregación de información de diversos sistemas y formatos de datos. A lo largo de los años, las aseguradoras han acumulado terabytes de datos no estructurados en sus almacenes de datos, los cuales pueden ayudar a descubrir perspectivas de negocio, ofrecer mejores experiencias al cliente y optimizar las operaciones. Sin embargo, muchas empresas no logran capitalizar esto.
Para ayudar a su organización a superar estos desafíos, puede compilar una solución de gestión de reclamaciones con MongoDB que combine Atlas Vector Search y LLMs en un sistema de generación de recuperación aumentada (RAG). Este framework ayuda a las organizaciones a ir más allá de las limitaciones de los modelos básicos fundamentales y a utilizar sus datos propios para hacer que los modelos sean conscientes del contexto, optimizando las operaciones con todo el potencial de la IA.
Arquitectura de referencia
MongoDB ofrece una experiencia de desarrollo unificada al almacenar documentos junto a sus embeddings vectoriales y metadatos asociados, eliminando la necesidad de recuperar datos de otros lugares. Esto permite a los usuarios centrarse en desarrollar su aplicación en vez de mantener una tecnología por separado. En última instancia, los datos obtenidos de MongoDB búsqueda vectorial se envían al LLM como contexto.
El proceso de flujo de consultas RAG es el siguiente:
El usuario escribe un mensaje en lenguaje natural.
El modelo de embedding de Voyage IA vectoriza el prompt.
Atlas búsqueda vectorial utiliza el prompt vectorizado para recuperar documentos relevantes.
El LLM utiliza tanto el contexto como la pregunta original para generar una respuesta.
El usuario recibe una respuesta.
Figura 1. Flujo de consulta de RAG
Enfoque de modelo de datos
En la solución demo, el modelo de datos es un diseño simplificado que emula datos reales de reclamaciones de seguros. El enfoque aprovecha el modelo orientado a documentos de MongoDB para gestionar la estructura de datos diversa que almacena incrustaciones junto con su documento relacionado.
La claims_final La colección almacena información de la reclamación. Los campos relevantes son el campo claimDescription y su incrustación correspondiente claimDescriptionEmbedding. Esta incrustación se indexa y se utiliza para recuperar los documentos asociados con la solicitud del usuario. Los documentos de esta colección son los siguientes:
{ "_id": { "$oid": "65cc809c76da22d0089dfb2e" }, "customerID": "c105", "policyNumber": "p105", "claimID": "cl105", "claimStatusCode": "Subrogation", "claimDescription": "High winds caused ...", "totalLossAmount": 4200, "claimFNOLDate": "2023-10-27", "claimClosedDate": "2024-09-01", "claimLineCode": "Auto", "damageDescription": "Roof caved in ...", "insurableObject": { "insurableObjectId": "abc105", "vehicleMake": "Make105", "vehicleModel": "Model105" }, "coverages": [ { "coverageCode": "888", "description": "3rd party responsible" }, { "coverageCode": "777", "description": "Vehicle rental/loaner service for customer" } ], "claimDescriptionEmbedding": [-0.017, ..., 0.011], "damageDescriptionEmbedding": [-0.047, ..., -0.043], "photo": "105.jpg", "photoEmbedding": [9.629, ..., 14.075] }
Compilar la solución
Para obtener instrucciones detalladas de configuración, sigue el README de este repositorio de GitHubLas instrucciones lo guían a través de los siguientes pasos:
Crear un índice de búsqueda vectorial
Crea y configura un Índice de Atlas búsqueda vectorial para claimDescriptionEmbeddingCohere llamado vector_index_claim_description_cohere. Debes estructurar el índice de búsqueda de la siguiente manera:
{ "fields": [ { "type": "vector", "path": "claimDescriptionEmbeddingCohere", "numDimensions": 350, "similarity": "cosine" } ] }
Debes ejecutar tanto el frontend como el backend. Tendrás acceso a una Interfaz de Usuario web que te permitirá hacer preguntas al LLM, obtener una respuesta, y ver los documentos de referencia utilizados como contexto.
Para probar la herramienta de búsqueda semántica de MongoDB, visita la Guía de inicio rápido de Atlas búsqueda vectorial.
Lecciones clave
Generar incrustaciones de texto: se pueden crear incrustaciones utilizando diferentes modelos y opciones de implementación. Es importante considerar los requisitos de privacidad y protección de datos. Puedes implementar un modelo localmente si tus datos necesitan permanecer en los servidores. De lo contrario, puedes llamar a una API y recuperar tus incrustaciones vectoriales, como se explica en este tutorial. Puedes usar Voyage IA o modelos de código abierto.
Crear índices de búsqueda vectorial: Puede crear índices de búsqueda vectorial en MongoDB Atlas. También puede crear índices para implementaciones locales.
Realiza una consulta de búsqueda vectorial: Puedes ejecutar consultas de Búsqueda Vectorial con el pipeline de agregación de MongoDB, lo que te permite concatenar múltiples operaciones en tu flujo de trabajo. Este enfoque elimina la necesidad de aprender otro lenguaje de programación o cambiar de contexto.
Desarrollar una implementación rápida de RAG: Puedes desarrollar una implementación rápida de RAG utilizando un framework de LangChain que combina MongoDB Atlas búsqueda vectorial y LLMs.
Autores
Luca Napoli, soluciones empresariales, MongoDB
Jeff Needham, Soluciones sectoriales, MongoDB