Menu Docs
Página inicial do Docs
/ /
Centro de Arquitetura Atlas
/ / /

Gerenciamento de declarações usando LLMs e Vector Search para RAG

Descubra como combinar o MongoDB Atlas Vector Search e Large Language Models (LLMs) para simplificar o processo de ajuste de reivindicações.

Casos de uso: Gen AI, Gerenciamento de Conteúdo

Setores: Seguros, Finanças, Manufatura e Mobilidade, Varejo

Produtos: MongoDB Atlas, MongoDB Atlas Vector Search

Parceiros: LangChain, FastAPI

Um dos maiores desafios para os avaliadores de reivindicações é agregar informações de diversos sistemas e formatos de dados. Ao longo dos anos, as operadoras de seguros acumularam terabytes de dados não estruturados em seus armazenamentos de dados, o que pode ajudar a revelar insights de negócios, proporcionar melhores experiências aos cliente e simplificar as operações. No entanto, muitas empresas não conseguem capitalizar sobre isso.

Para ajudar sua organização a superar esses desafios, você pode criar uma solução de gerenciamento de declarações com o MongoDB que combina Atlas Vector Search e LLMs em um sistema de geração aumentada de recuperação (RAG). Essa estrutura ajuda as organizações a irem além das limitações dos modelos fundamentais básicos e a usarem seus dados proprietários para tornar os modelos sensíveis ao contexto, simplificando as operações com todo o potencial da IA.

O MongoDB fornece uma experiência de desenvolvimento unificada ao armazenar documentos junto com suas incorporações vetoriais e metadados associados, eliminando a necessidade de recuperar dados em outro lugar. Isso permite que os usuários se concentrem na criação de seu aplicação , em vez de manter uma tecnologia separada. Por fim, os dados obtidos com a MongoDB Vector Search são inseridos no LLM como contexto.

O processo do fluxo de query RAG é o seguinte:

  1. O usuário escreve um prompt em linguagem natural.

  2. O modelo de incorporação do Voyage AI vetoriza o prompt.

  3. O Atlas Vector Search usa o prompt vetorizado para recuperar documentos relevantes.

  4. O LLM usa o contexto e a pergunta original para gerar uma resposta.

  5. O usuário recebe uma resposta.

Fluxo de Consulta RAG

Figura 1. Fluxo de consulta RAG

Na solução de demonstração, o modelo de dados é um design simplificado que emula dados de solicitações de seguro do mundo real. A abordagem aproveita o modelo de documento flexível do MongoDB para lidar com a estrutura de dados diversificada que armazena incorporações junto com seu documento relacionado.

A coleção claims_final armazena informações de reivindicação. Os campos relevantes são o campo claimDescription e sua incorporação correspondente claimDescriptionEmbedding. Essa incorporação é indexada e usada para recuperar documentos associados ao prompt do usuário. Os documentos nesta coleção são os seguintes:

{
"_id": {
"$oid": "65cc809c76da22d0089dfb2e"
},
"customerID": "c105",
"policyNumber": "p105",
"claimID": "cl105",
"claimStatusCode": "Subrogation",
"claimDescription": "High winds caused ...",
"totalLossAmount": 4200,
"claimFNOLDate": "2023-10-27",
"claimClosedDate": "2024-09-01",
"claimLineCode": "Auto",
"damageDescription": "Roof caved in ...",
"insurableObject": {
"insurableObjectId": "abc105",
"vehicleMake": "Make105",
"vehicleModel": "Model105"
},
"coverages": [
{
"coverageCode": "888",
"description": "3rd party responsible"
},
{
"coverageCode": "777",
"description": "Vehicle rental/loaner service for customer"
}
],
"claimDescriptionEmbedding": [-0.017, ..., 0.011],
"damageDescriptionEmbedding": [-0.047, ..., -0.043],
"photo": "105.jpg",
"photoEmbedding": [9.629, ..., 14.075]
}

Para obter instruções de configuração detalhadas, siga README deste repositório do Github. As instruções orientam você nas seguintes etapas:

1

Crie um novo banco de dados no MongoDB Atlas denominado demo_rag_insurance e utilize o conjunto de dados fornecido demo_rag_insurance_claims.json para criar uma collection denominada claims_final.

2

Crie e configure um índice do Atlas Vector Search para claimDescriptionEmbeddingCohere chamado vector_index_claim_description_cohere. Você deve estruturar o índice de pesquisa da seguinte maneira:

{
"fields": [
{
"type": "vector",
"path": "claimDescriptionEmbeddingCohere",
"numDimensions": 350,
"similarity": "cosine"
}
]
}
3

Configure um ambiente virtual usando o POetry.

4

Inicie o servidor de backend .

5

Configure variáveis de ambiente e execute o frontend.

Você tem que executar a frente e para trás. Você acessará uma interface do usuário da Web que permitirá fazer perguntas ao LLM, obter uma resposta e ver os documentos de referência usados como contexto.

Para experimentar a ferramenta de pesquisa semântica do MongoDB agora, visite o guia de início rápido do Atlas Vector Search.

  • Gerar incorporações de texto: você pode criar incorporações usando diferentes modelos e opções de implantação. É importante considerar os requisitos de privacidade e proteção de dados. Você pode implantar um modelo localmente se seus dados precisarem permanecer nos servidores. Caso contrário, você pode chamar uma API e recuperar suas incorporações vetoriais, conforme explicado neste tutorial. Você pode usar modelos Voyage AI ou open-source.

  • Criar índices de Vector Search: Você pode criar índices de Vector Search no MongoDB Atlas. Como alternativa, você também pode criar índices para sistemas locais.

  • Execute uma query do Vector Search: você pode executar queries do Vector Search com o agregação pipeline do MongoDB, permitindo concatenar várias operações em seu fluxo de trabalho. Essa abordagem elimina a necessidade de aprender outra linguagem de programação ou alterar o contexto.

  • Desenvolva uma implementação rápida de RAG: Você pode desenvolver uma implementação rápida de RAG com uma estrutura LangChain que combina MongoDB Atlas Vector Search e LLMs.

  • Luca Napoli, soluções para o setor, MongoDB

  • Jeff Needham, soluções para o setor, MongoDB

Voltar

Criar um aplicativo de pesquisa em PDF

Nesta página