Descubra como combinar o MongoDB Atlas Vector Search e Large Language Models (LLMs) para simplificar o processo de ajuste de reivindicações.
Casos de uso: Gen AI, Gerenciamento de Conteúdo
Setores: Seguros, Finanças, Manufatura e Mobilidade, Varejo
Produtos: MongoDB Atlas, MongoDB Atlas Vector Search
Visão Geral da Solução
Um dos maiores desafios para os avaliadores de reivindicações é agregar informações de diversos sistemas e formatos de dados. Ao longo dos anos, as operadoras de seguros acumularam terabytes de dados não estruturados em seus armazenamentos de dados, o que pode ajudar a revelar insights de negócios, proporcionar melhores experiências aos cliente e simplificar as operações. No entanto, muitas empresas não conseguem capitalizar sobre isso.
Para ajudar sua organização a superar esses desafios, você pode criar uma solução de gerenciamento de declarações com o MongoDB que combina Atlas Vector Search e LLMs em um sistema de geração aumentada de recuperação (RAG). Essa estrutura ajuda as organizações a irem além das limitações dos modelos fundamentais básicos e a usarem seus dados proprietários para tornar os modelos sensíveis ao contexto, simplificando as operações com todo o potencial da IA.
Arquitetura de referência
O MongoDB fornece uma experiência de desenvolvimento unificada ao armazenar documentos junto com suas incorporações vetoriais e metadados associados, eliminando a necessidade de recuperar dados em outro lugar. Isso permite que os usuários se concentrem na criação de seu aplicação , em vez de manter uma tecnologia separada. Por fim, os dados obtidos com a MongoDB Vector Search são inseridos no LLM como contexto.
O processo do fluxo de query RAG é o seguinte:
O usuário escreve um prompt em linguagem natural.
O modelo de incorporação do Voyage AI vetoriza o prompt.
O Atlas Vector Search usa o prompt vetorizado para recuperar documentos relevantes.
O LLM usa o contexto e a pergunta original para gerar uma resposta.
O usuário recebe uma resposta.
Figura 1. Fluxo de consulta RAG
Abordagem do modelo de dados
Na solução de demonstração, o modelo de dados é um design simplificado que emula dados de solicitações de seguro do mundo real. A abordagem aproveita o modelo de documento flexível do MongoDB para lidar com a estrutura de dados diversificada que armazena incorporações junto com seu documento relacionado.
A coleção claims_final
armazena informações de reivindicação. Os campos relevantes são o campo claimDescription
e sua incorporação correspondente claimDescriptionEmbedding
. Essa incorporação é indexada e usada para recuperar documentos associados ao prompt do usuário. Os documentos nesta coleção são os seguintes:
{ "_id": { "$oid": "65cc809c76da22d0089dfb2e" }, "customerID": "c105", "policyNumber": "p105", "claimID": "cl105", "claimStatusCode": "Subrogation", "claimDescription": "High winds caused ...", "totalLossAmount": 4200, "claimFNOLDate": "2023-10-27", "claimClosedDate": "2024-09-01", "claimLineCode": "Auto", "damageDescription": "Roof caved in ...", "insurableObject": { "insurableObjectId": "abc105", "vehicleMake": "Make105", "vehicleModel": "Model105" }, "coverages": [ { "coverageCode": "888", "description": "3rd party responsible" }, { "coverageCode": "777", "description": "Vehicle rental/loaner service for customer" } ], "claimDescriptionEmbedding": [-0.017, ..., 0.011], "damageDescriptionEmbedding": [-0.047, ..., -0.043], "photo": "105.jpg", "photoEmbedding": [9.629, ..., 14.075] }
Construir a solução
Para obter instruções de configuração detalhadas, siga README
deste repositório do Github. As instruções orientam você nas seguintes etapas:
Crie um índice de pesquisa vetorial
Crie e configure um índice do Atlas Vector Search para claimDescriptionEmbeddingCohere
chamado vector_index_claim_description_cohere
. Você deve estruturar o índice de pesquisa da seguinte maneira:
{ "fields": [ { "type": "vector", "path": "claimDescriptionEmbeddingCohere", "numDimensions": 350, "similarity": "cosine" } ] }
Você tem que executar a frente e para trás. Você acessará uma interface do usuário da Web que permitirá fazer perguntas ao LLM, obter uma resposta e ver os documentos de referência usados como contexto.
Para experimentar a ferramenta de pesquisa semântica do MongoDB agora, visite o guia de início rápido do Atlas Vector Search.
Principais Aprendizados
Gerar incorporações de texto: você pode criar incorporações usando diferentes modelos e opções de implantação. É importante considerar os requisitos de privacidade e proteção de dados. Você pode implantar um modelo localmente se seus dados precisarem permanecer nos servidores. Caso contrário, você pode chamar uma API e recuperar suas incorporações vetoriais, conforme explicado neste tutorial. Você pode usar modelos Voyage AI ou open-source.
Criar índices de Vector Search: Você pode criar índices de Vector Search no MongoDB Atlas. Como alternativa, você também pode criar índices para sistemas locais.
Execute uma query do Vector Search: você pode executar queries do Vector Search com o agregação pipeline do MongoDB, permitindo concatenar várias operações em seu fluxo de trabalho. Essa abordagem elimina a necessidade de aprender outra linguagem de programação ou alterar o contexto.
Desenvolva uma implementação rápida de RAG: Você pode desenvolver uma implementação rápida de RAG com uma estrutura LangChain que combina MongoDB Atlas Vector Search e LLMs.
Autores
Luca Napoli, soluções para o setor, MongoDB
Jeff Needham, soluções para o setor, MongoDB