Join us at MongoDB.local London on 7 May to unlock new possibilities for your data. Use WEB50 to save 50%.
Register now >
Docs Menu
Docs Home
/

Gestión de reclamaciones mediante LLMs y búsqueda vectorial para RAG

Descubra cómo combinar MongoDB Atlas Vector Search y Large Language Models (LLMs) para agilizar el proceso de ajuste de reclamaciones.

caso de uso: IA generativa, Gestión de contenido

Industrias: Seguros, Finanzas, Manufactura y Movilidad, Comercio Minorista

Productos: MongoDB Atlas, Búsquedavectorialde MongoDB Atlas

emparejar: LangChain

Uno de los mayores desafíos para los ajustadores de siniestros es la agregación de información de diversos sistemas y formatos de datos. A lo largo de los años, las aseguradoras han acumulado terabytes de datos no estructurados en sus almacenes de datos, los cuales pueden ayudar a descubrir perspectivas de negocio, ofrecer mejores experiencias al cliente y optimizar las operaciones. Sin embargo, muchas empresas no logran capitalizar esto.

Para ayudar a su organización a superar estos desafíos, puede compilar una solución de gestión de reclamaciones con MongoDB que combine Atlas Vector Search y LLMs en un sistema de generación de recuperación aumentada (RAG). Este framework ayuda a las organizaciones a ir más allá de las limitaciones de los modelos básicos fundamentales y a utilizar sus datos propios para hacer que los modelos sean conscientes del contexto, optimizando las operaciones con todo el potencial de la IA.

MongoDB ofrece una experiencia de desarrollo unificada al almacenar documentos junto a sus embeddings vectoriales y metadatos asociados, eliminando la necesidad de recuperar datos de otros lugares. Esto permite a los usuarios centrarse en desarrollar su aplicación en vez de mantener una tecnología por separado. En última instancia, los datos obtenidos de MongoDB búsqueda vectorial se envían al LLM como contexto.

El proceso de flujo de consultas RAG es el siguiente:

  1. El usuario escribe un mensaje en lenguaje natural.

  2. El modelo de embedding de Voyage IA vectoriza el prompt.

  3. Atlas búsqueda vectorial utiliza el prompt vectorizado para recuperar documentos relevantes.

  4. El LLM utiliza tanto el contexto como la pregunta original para generar una respuesta.

  5. El usuario recibe una respuesta.

Flujo de consulta RAG

Figura 1. Flujo de consulta de RAG

En la solución demo, el modelo de datos es un diseño simplificado que emula datos reales de reclamaciones de seguros. El enfoque aprovecha el modelo orientado a documentos de MongoDB para gestionar la estructura de datos diversa que almacena incrustaciones junto con su documento relacionado.

La claims_final La colección almacena información de la reclamación. Los campos relevantes son el campo claimDescription y su incrustación correspondiente claimDescriptionEmbedding. Esta incrustación se indexa y se utiliza para recuperar los documentos asociados con la solicitud del usuario. Los documentos de esta colección son los siguientes:

{
"_id": {
"$oid": "65cc809c76da22d0089dfb2e"
},
"customerID": "c105",
"policyNumber": "p105",
"claimID": "cl105",
"claimStatusCode": "Subrogation",
"claimDescription": "High winds caused ...",
"totalLossAmount": 4200,
"claimFNOLDate": "2023-10-27",
"claimClosedDate": "2024-09-01",
"claimLineCode": "Auto",
"damageDescription": "Roof caved in ...",
"insurableObject": {
"insurableObjectId": "abc105",
"vehicleMake": "Make105",
"vehicleModel": "Model105"
},
"coverages": [
{
"coverageCode": "888",
"description": "3rd party responsible"
},
{
"coverageCode": "777",
"description": "Vehicle rental/loaner service for customer"
}
],
"claimDescriptionEmbedding": [-0.017, ..., 0.011],
"damageDescriptionEmbedding": [-0.047, ..., -0.043],
"photo": "105.jpg",
"photoEmbedding": [9.629, ..., 14.075]
}

Para obtener instrucciones detalladas de configuración, sigue el README de este repositorio de GitHubLas instrucciones lo guían a través de los siguientes pasos:

1

Crea una nueva base de datos en MongoDB Atlas llamada demo_rag_insurance y utiliza el conjunto de datos proporcionado demo_rag_insurance_claims.json para crear una colección llamada claims_final.

2

Crea y configura un Índice de Atlas búsqueda vectorial para claimDescriptionEmbeddingCohere llamado vector_index_claim_description_cohere. Debes estructurar el índice de búsqueda de la siguiente manera:

{
"fields": [
{
"type": "vector",
"path": "claimDescriptionEmbeddingCohere",
"numDimensions": 350,
"similarity": "cosine"
}
]
}
3

Configura un entorno virtual usando Poetry.

4

Inicia el servidor backend.

5

Configurar las variables de entorno y ejecutar el frontend.

Debes ejecutar tanto el frontend como el backend. Tendrás acceso a una Interfaz de Usuario web que te permitirá hacer preguntas al LLM, obtener una respuesta, y ver los documentos de referencia utilizados como contexto.

Para probar la herramienta de búsqueda semántica de MongoDB, visita la Guía de inicio rápido de Atlas búsqueda vectorial.

  • Generar incrustaciones de texto: se pueden crear incrustaciones utilizando diferentes modelos y opciones de implementación. Es importante considerar los requisitos de privacidad y protección de datos. Puedes implementar un modelo localmente si tus datos necesitan permanecer en los servidores. De lo contrario, puedes llamar a una API y recuperar tus incrustaciones vectoriales, como se explica en este tutorial. Puedes usar Voyage IA o modelos de código abierto.

  • Crear índices de búsqueda vectorial: Puede crear índices de búsqueda vectorial en MongoDB Atlas. También puede crear índices para implementaciones locales.

  • Realiza una consulta de búsqueda vectorial: Puedes ejecutar consultas de Búsqueda Vectorial con el pipeline de agregación de MongoDB, lo que te permite concatenar múltiples operaciones en tu flujo de trabajo. Este enfoque elimina la necesidad de aprender otro lenguaje de programación o cambiar de contexto.

  • Desarrollar una implementación rápida de RAG: Puedes desarrollar una implementación rápida de RAG utilizando un framework de LangChain que combina MongoDB Atlas búsqueda vectorial y LLMs.

  • Luca Napoli, soluciones empresariales, MongoDB

  • Jeff Needham, Soluciones sectoriales, MongoDB

Volver

Crea una aplicación de búsqueda de PDF

En esta página