Melhore a interatividade dos aplicativos bancários usando o MongoDB Atlas Vector Search e modelos de linguagem grandes.
Use cases: Gen AI, Intelligent Search, Content Management
Setores: serviços financeiros
Products: MongoDB Atlas, MongoDB Atlas Vector Search, Voyage AI
Partners: Amazon Bedrock, LangChain
Visão Geral da Solução
Nesta solução, você aprenderá a aproveitar a inteligência de documento usando a IA de agentes da MongoDB. Essa abordagem desbloqueia insights de dados estruturados, semiestruturados e não estruturados de diversas fontes, como repositórios locais, containers na nuvem e serviços de armazenamento na nuvem.
Instituições bancárias e fornecedores de tecnologia alimentar gerenciam grandes volumes de documentos e dados fragmentados de várias fontes. Tarefas manuais, como coletar, pesquisar e analisar essas informações, retardam as operações e aumentam o risco de erros.
This solution addresses these challenges using a multi-agent orchestration system. It is powered by MongoDB’s flexible document model, MongoDB Atlas Vector Search, VoyageAI's voyage-context-3, and agentic AI.
Esta solução explora cinco casos de uso de documento em serviços financeiros:
Classificação de crédito da empresa
Tratamento de exceções no processamento de pagamentos
Pesquisa de valores
Onboarding de Clientes (KYC)
Originação de Empréstimos
A próxima seção explica como transformar documentos estáticos em fontes dinâmicas de insights operacionais e estratégicos.
Arquiteturas de referência
Esta solução é composta por três componentes modulares principais:
figura 1. Arquitetura inteligente de processamento de documento com MongoDB.
1. Orquestração de vários agentes do Supervisor
Um agente Supervisor coordena uma equipe de agentes especializados. Cada agente recebe seus próprios prompts e ferramentas específicas para executar tarefas específicas:
O agente de varredura descobre e indexa documentos disponíveis a partir de várias fontes (arquivos locais, AWS3 S, Google Drive).
O agente avaliador avalia a relevância do documento com base no contexto do setor e do caso de uso.
O Agente de extração usa a IA de visão (Class 3.5 Sonnet2 v) para interpretar elementos visuais e de texto, como gráficos ou tabelas, e convertê-los em remarcações.
O Agente de Processador divide o conteúdo em blocos semanticamente significativos, gera incorporações usando a VoyageAI e as armazena nas coleções do MongoDB Atlas .
Parte 2. Sistema de RAG agente
Após a ingestão dos dados, esse fluxo de trabalho RAG:
Permite a interação em tempo real com um agente assistente de documento.
Usa geração de queries, classificação de documento e loops de reescrita de queries para refinar automaticamente as respostas.
Usa 3 incorporações priority-context-, permitindo que chunks de documento retenham um contexto mais amplo para obter respostas precisas e baseadas.
Observação
O Agentic RAG tem as seguintes qualidades:
Faz decisões inteligentes: sabe quando a recuperação é necessária versus resposta direta
Autocorrige: se os documentos recuperados não forem relevantes, reescreve a query e tenta novamente
Mantém o contexto: usa o checkpoint do MongoDB para conversas com várias tentativas
Transparência: acompanha as etapas do fluxo de trabalho e as decisões de classificação
Parte 3. Geração de relatórios e insights
Este módulo usa pesquisas vetoriais direcionadas e geração de conteúdo baseada em LLM para automatizar relatórios periódicos, executando as seguintes tarefas:
Processamento de informações para gerar relatórios personalizados.
Compilar descobertas relevantes e dados contextuais.
Exportação de saídas estruturadas, como PDFs.
Incluindo mecanismos de contingência para garantir a confiabilidade, mesmo em cenários de baixo contexto.
Abordagem do modelo de dados
O modelo de dados da solução agrupa suas coleções por função:
Core document processing:
chunks: stores text segments withvoyage-context-3vectors.documents: stores document metadata, which tracks processing status and source information.assessments: contains document evaluation results like relevance scores and processing decisions.workflows: stores the ingestion workflow tracking, which monitors multi-agent processing state.
O documento a seguir é um exemplo da coleção chunks:
{ "_id": { "$oid": "68e7d4cd77c8fbfb9abdf878" }, "document_id": "doc_ef5b1da6", "document_name": "Payment_Investigation_Ticket.pdf", "chunk_index": 2, "chunk_text": "Contacted cardholder to confirm receipt of temporary credit and advise on investigation timeline. Cardholder confirmed satisfaction with temporary resolution...", "embedding": [ 0.02789805270731449, 0.0045435624197125435, -0.06760358065366745, ... ], "has_visual_references": false, "metadata": { "name": "Payment_Investigation_Ticket.pdf", "path": "@s3@.../document-intelligence/fsi/payment_processing_exception/Payment_Investigation_Ticket.pdf", "processed_at": { "$date": "2025-10-09T15:29:17.741Z" }, "chunk_count": 3, "chunk_metadata": { "chunk_index": 2, "total_chunks": 3, "section_start": "Contacted cardholder", "section_end": "ion_ticket.html*\n4/5", "document_id": "doc_ef5b1da6", "document_name": "Payment_Investigation_Ticket.pdf", "contains_images": false } } }
O documento a seguir é um exemplo da coleção documents:
{ "_id": { "$oid": "68e7d4cb5fc2bb6e17eaedb8" }, "document_id": "doc_ef5b1da6", "document_name": "Payment_Investigation_Ticket.pdf", "document_path": "@s3.../document-intelligence/fsi/payment_processing_exception/Payment_Investigation_Ticket.pdf", "file_extension": "pdf", "file_size_mb": 0.3242454528808594, "source_type": "s3", "source_path": "@s3@fsi/payment_processing_exception", "page_count": 4, "created_at": { "$date": "2025-10-09T15:29:15.041Z" }, "updated_at": { "$date": "2025-10-09T15:29:18.267Z" }, "status": "completed", "chunk_count": 3, "has_visual_references": true, "metadata": { "markdown_length": 5592, "processing_timestamp": { "$date": "2025-10-09T15:29:15.041Z" } } }
O documento a seguir é um exemplo da coleção assessments:
{ "_id": { "$oid": "68e7d2b35fc2bb6e17eaedb2" }, "document_id": "doc_ef5b1da6", "document_name": "Payment_Investigation_Ticket.pdf", "document_path": "@s3.../document-intelligence/fsi/payment_processing_exception/Payment_Investigation_Ticket.pdf", "file_size_mb": 0.3242454528808594, "assessment": { "main_entity": "Payment Investigation Ticket", "document_category": "Banking Investigation Document", "key_topics": [ "merchant chargeback investigation", "payment dispute resolution", "cardholder dispute handling" ], "relevance_score": 95, "reasoning": "This document is highly relevant to both the financial services industry and exception handling in payment processing. It is an official payment investigation ticket from First National Bank's Payment Investigation Department, specifically dealing with a cardholder dispute and merchant non-response case. The document contains formal banking investigation details, dispute resolution tracking, and payment processing exception handling elements.", "should_process": true }, "assessed_at": { "$date": "2025-10-09T15:20:19.060Z" }, "workflow_id": "fsi_payment_processing_exception_1760023126468" }
O documento a seguir é um exemplo da coleção workflows:
{ "_id": { "$oid": "68e7d25d5fc2bb6e17eaedad" }, "workflow_id": "fsi_payment_processing_exception_1760023126468", "endpoint": "/api/ingestion/start", "source_paths": [ "@local@/docs/fsi/payment_processing_exception", "@s3@fsi/payment_processing_exception", "@gdrive@fsi/payment_processing_exception" ], "triggered_at": { "$date": "2025-10-09T15:18:53.563Z" } }
Além das principais collections de processamento de documento , a solução inclui outras funções e suas collections correspondentes, como:
Prompt interaction and memory:
gradings: includes document relevance grading, such as binary scores from Q&A retrieval assessments.".logs_qa: tracks agentic RAG workflow steps and decisions, including prompt interaction session logs.agent_personas: defines prompts and capabilities per industry, tailored for use-case-specific AI configurations.checkpoint_writes_aio: handles async persistence for conversation state, specifically for LangGraph state writes.checkpoints_aio: manages thread-based dialogue history, functioning as conversation memory.
Reports:
scheduled_reports: tracks PDF locations and generation history, including generated report metadata.report_templates: defines sections and prompts by use case, serving as report structure templates.
Essa abordagem do modelo de dados cria um design intuitivo que simplifica o desenvolvimento, pois todos os dados relacionados a uma tarefa específica são colocalizados dentro da estrutura flexível de documento do MongoDB.
Construir a solução
Para a implementação e código completos, siga as instruções no README neste repositório GitHub.
Esta solução é construída compondo três padrões de arquitetura principais. Aqui estão as etapas de como cada componente é implementado:
Implemente o sistema multiagente Supervisor
Este é o pipeline de ingestão principal que coordena vários agentes de IA especializados.
Defina agentes especializados: primeiro, você define cada agente usando uma estrutura LangGraph.
Implemente o agente Supervisor: Em seguida, você implementa um
supervisor agentque gerencia o fluxo de trabalho geral. Isso segue o padrão do Supervisor LangGraph.
Construa o sistema RAG agente
Esse sistema fornece um fluxo de trabalho Agentic RAG com correção automática. Ele apresenta um agente de recuperação que decide de forma inteligente se recupera o contexto do MongoDB Atlas Vector Search ou responde diretamente ao usuário.
figura 2. Arquitetura Agentic RAG com MongoDB (Document Assistente de Agente).
Crie o índice de Vector Search: Crie um índice de pesquisa vetorial na sua
chunkscoleção. Isso permite que o aplicação execute uma pesquisa semântica rápida nas incorporações de documento .Construa o gráfico RAG auto-corretivo: Construa um gráfico cíclico com bordas condicionais usando o LangGraph. Esse grafo inclui um agente de recuperação , um classificador de documento e um reescritor de query. O objetivo do reescritor de query é tentar novamente se os resultados não forem relevantes.
Habilitar apersistência da conversa: implemente o sistema de checkpoint do MongoDB para fornecer memória de conversa e conversas em vários pontos. Isso salva e carrega automaticamente o estado da conversa de uma coleção MongoDB dedicada, dando ao agente persistência da memória.
Criar o gerador automatizado de relatórios
Este módulo automatiza a geração de relatórios em PDF agendados.
Armazenar modelos de relatório: aproveite o esquema flexível do MongoDB para criar uma
report_templatescoleção. Isso armazena a estrutura, os títulos das seções e os prompts de pesquisa semântica específicos para cada tipo de relatório, como relatórios de Classificação de Crédito e Pesquisa de Investimento.Implementar a geração específica de seção: crie um script que percorre cada seção de um modelo. Este script executa uma query separada do Atlas Vector Search . Ele usa o prompt para essa seção específica e acumula o conteúdo.
Agendar e acompanhar saídas de relatório: esse roteiro é executado por um agendador. Depois de gerar o PDF, o script grava seus metadados, como caminho do arquivo e data de geração, em uma
scheduled_reportscoleção no MongoDB para rastreamento.
Principais Aprendizados
Use o MongoDB Atlas como sua plataforma de dados unificada para armazenar metadados estruturados, documentos não estruturados, incorporações vetoriais e estado operacional. Isso elimina os silos de dados e reduz a complexidade arquitetônica.
Implemente um padrão de orquestração de vários agentes e Supervisor para gerenciar fluxos de trabalho complexos e de várias etapas. Esse padrão permite dividir ferramentas em agentes trabalhadores especializados para garantir uma experiência direcionada.
Implemente o Agentic RAG com mecanismos de autocorreção para melhorar a precisão da query. Isso permite que os agentes decidam de forma inteligente quando recuperar o contexto, reformular as queries e classificar a relevância do documento .
Implemente os checkpointers do MongoDB para uma memória persistente do agente , a fim de estabelecer uma conversa robusta e um rastreamento robusto do fluxo de trabalho. Isso garante o estado da conversa persistente e o histórico de diálogo para interações de várias voltas.
Realize pesquisas semânticas usando o MongoDB Atlas Vector Search para geração de conteúdo direcionado, como relatórios automatizados. Isso permite que as queries recuperem conteúdo por significado, não apenas palavras-chave, para obter resultados mais precisos.
Autores
Peyman Parsi, Serviços financeiros de campo CTO, MongoDB
Ainhosa Mugica, Consultor, Soluções para o setor, MongoDB
julian boronat, especialista sênior, soluções para o setor, MongoDB
Andrea Alamán Calderón, especialista sênior em soluções setoriais, MongoDB
Saiba mais
Descubra como implementar nossa estrutura para rápida implementação de agentes de IA
Aprofunde-se na memória de agente com nosso guia "O que é memória de agentes? Um guia para aprimorar o aprendizado e a recuperação de IA
Saiba mais sobre priority-context-:3 detalhes focados no nível do bloco com contexto global do documento