Docs Menu
Docs Home
/

Gestión de reclamaciones mediante LLM y búsqueda vectorial para RAG

Descubra cómo combinar MongoDB Atlas Vector Search y Large Language Models (LLMs) para agilizar el proceso de ajuste de reclamaciones.

Casos de uso: Gen AI, Gestión de contenidos

Industrias: Seguros, Finanzas, Manufactura y Movilidad, Comercio Minorista

Productos: MongoDB Atlas, Búsquedavectorialde MongoDB Atlas

Asociados: LangChain,APIrápida

Uno de los mayores desafíos para los liquidadores de siniestros es la agregación de información de diversos sistemas y formatos de datos. A lo largo de los años, las aseguradoras han acumulado terabytes de datos no estructurados en sus almacenes de datos, lo que puede ayudar a descubrir información empresarial, ofrecer mejores experiencias al cliente y optimizar las operaciones. Sin embargo, muchas empresas no aprovechan esta ventaja.

Para ayudar a su organización a superar estos desafíos, puede compilar una solución de gestión de reclamaciones con MongoDB que combine Atlas Vector Search y LLMs en un sistema de generación de recuperación aumentada (RAG). Este framework ayuda a las organizaciones a ir más allá de las limitaciones de los modelos básicos fundamentales y a utilizar sus datos propios para hacer que los modelos sean conscientes del contexto, optimizando las operaciones con todo el potencial de la IA.

MongoDB ofrece una experiencia de desarrollo unificada al almacenar documentos junto a sus embeddings vectoriales y metadatos asociados, eliminando la necesidad de recuperar datos de otros lugares. Esto permite a los usuarios centrarse en desarrollar su aplicación en vez de mantener una tecnología por separado. En última instancia, los datos obtenidos de MongoDB búsqueda vectorial se envían al LLM como contexto.

El proceso del flujo de consulta RAG es el siguiente:

  1. El usuario escribe un mensaje en lenguaje natural.

  2. El modelo de integración de Voyage AI vectoriza el mensaje.

  3. Atlas Vector Search utiliza el mensaje vectorizado para recuperar documentos relevantes.

  4. El LLM utiliza tanto el contexto como la pregunta original para generar una respuesta.

  5. El usuario recibe una respuesta.

Flujo de consulta de RAG

Figura 1. Flujo de consulta de RAG

En la solución de demostración, el modelo de datos presenta un diseño simplificado que emula datos reales de reclamaciones de seguros. Este enfoque aprovecha el modelo de documentos flexible de MongoDB para gestionar la diversa estructura de datos que almacena las incrustaciones junto con su documento correspondiente.

El claims_final La colección almacena información de la reclamación. Los campos relevantes son el campo claimDescription y su incrustación correspondiente claimDescriptionEmbedding. Esta incrustación se indexa y se utiliza para recuperar los documentos asociados con la solicitud del usuario. Los documentos de esta colección son los siguientes:

{
"_id": {
"$oid": "65cc809c76da22d0089dfb2e"
},
"customerID": "c105",
"policyNumber": "p105",
"claimID": "cl105",
"claimStatusCode": "Subrogation",
"claimDescription": "High winds caused ...",
"totalLossAmount": 4200,
"claimFNOLDate": "2023-10-27",
"claimClosedDate": "2024-09-01",
"claimLineCode": "Auto",
"damageDescription": "Roof caved in ...",
"insurableObject": {
"insurableObjectId": "abc105",
"vehicleMake": "Make105",
"vehicleModel": "Model105"
},
"coverages": [
{
"coverageCode": "888",
"description": "3rd party responsible"
},
{
"coverageCode": "777",
"description": "Vehicle rental/loaner service for customer"
}
],
"claimDescriptionEmbedding": [-0.017, ..., 0.011],
"damageDescriptionEmbedding": [-0.047, ..., -0.043],
"photo": "105.jpg",
"photoEmbedding": [9.629, ..., 14.075]
}

Para obtener instrucciones de configuración detalladas, siga las README de este repositorio de GitHubLas instrucciones le guiarán a través de los siguientes pasos:

1

Cree una nueva base de datos en MongoDB Atlas llamada demo_rag_insurance y utilice el conjunto de datos proporcionado demo_rag_insurance_claims.json para crear una colección llamada claims_final.

2

Cree y configure un índice de búsqueda vectorial Atlas para claimDescriptionEmbeddingCohere vector_index_claim_description_coherellamado. Debe estructurar el índice de búsqueda de la siguiente manera:

{
"fields": [
{
"type": "vector",
"path": "claimDescriptionEmbeddingCohere",
"numDimensions": 350,
"similarity": "cosine"
}
]
}
3

Configurar un entorno virtual usando poesía.

4

Inicie el servidor backend.

5

Configurar las variables de entorno y ejecutar el frontend.

Debes ejecutar tanto el front-end como el back-end. Accederás a una interfaz web que te permite hacer preguntas al LLM, obtener respuestas y ver los documentos de referencia utilizados como contexto.

Para probar la herramienta de búsqueda semántica de MongoDB ahora, visita la guía de inicio rápido de búsqueda vectorial de Atlas.

  • Generar incrustaciones de texto: Puede crear incrustaciones utilizando diferentes modelos y opciones de implementación. Es importante considerar los requisitos de privacidad y protección de datos. Puede implementar un modelo localmente si sus datos deben permanecer en los servidores. De lo contrario, puede llamar a una API y recuperar sus incrustaciones vectoriales, como se explica en este tutorial. Puede usar Voyage AI o modelos de código abierto.

  • Crear índices de búsqueda vectorial: Puede crear índices de búsqueda vectorial en MongoDB Atlas. También puede crear índices para implementaciones locales.

  • Realizar una consulta de búsqueda vectorial: Puede ejecutar consultas de búsqueda vectorial con la canalización de agregación de MongoDB, lo que le permite concatenar múltiples operaciones en su flujo de trabajo. Este enfoque elimina la necesidad de aprender otro lenguaje de programación o cambiar el contexto.

  • Desarrollar una implementación rápida de RAG: puede desarrollar una implementación rápida de RAG con un marco LangChain que combina MongoDB Atlas Vector Search y LLM.

  • Luca Napoli, Soluciones Industriales, MongoDB

  • Jeff Needham, Soluciones industriales, MongoDB

Volver

Crear una aplicación de búsqueda de PDF

En esta página