Xlrt: Otimização do processamento de documentos financeiros por meio de IA agente e gráficos de conhecimento
Este documento descreve a arquitetura do Xlrt, uma solução projetada para otimizar a análise de documento financeiros e fluxos de trabalho complexos por meio do uso de IA de agentes e um gráfico de conhecimento desenvolvido pelo MongoDB.
Visão geral do Xlrt
O Xlrt transforma a tomada de decisões financeiros ao eliminar gargalos manuais e ampliações de IA para gerar uma visão precisa e completa da saúde financeira do cliente . O sistema usa agentes inteligentes que processam dados, executam ações e se adaptam aos ecossistemas financeiros. As decisões resultantes normalmente envolvem a otimização de processos de aprovação de crédito, a personalização de recomendações de produtos e o gerenciamento de riscos, como inadimplência e fraude.
Desafios da IA na análise de documentos financeiros
As abordagens tradicionais de IA financeira geralmente encontram gargalos que limitam o impacto e a confiança nos negócios, especialmente ao processar dados quantitativos complexos. Desafios comuns incluem:
Gargalos do fluxo de trabalho manual: Processos como a criação de memorandos de crédito exigem compilação, análise e revisões iterativas intensivas, levando a atrasos e erros.
Falta de embasamento contextual: os modelos de IA geralmente não têm o contexto financeiro específico da empresa necessário para uma precisão numérica. Isso leva a resultados que podem estar corretos do ponto de vista prático, mas não são aptos para a ação.
Riscos de precisão e confiabilidade (alucinações): mesmo com argumentos estruturados, modelos de linguagem grandes (LLMs) podem processar contexto incorretamente ou cometer erros lógicos, produzindo resultados que não são logicamente corretos ou precisos.
O Xlrt supera esses desafios usando os seguintes métodos:
Geração Aumentada de Recuperação de Gráficos (Graph RAG): que usa uma onologia financeira - uma estrutura de gráfico que representa os principais itens de linha financeira e seus relacionamentos - para recuperar seletivamente o conhecimento financeiro relevante e os dados numéricos.
Agentes específicos de funções e lógica de cadeia de ideias (CoT): para automatizar fluxos de trabalho de ponta a ponta.
Feedback baseado em pontuação: para aumentar o argumentos, avalie a precisão e refine iterativamente os prompts do CoT até que os resultados atendam aos padrões de precisão.
O poder dos agentes de conhecimento com a geração aumentada de recuperação de gráficos
Agentes de conhecimento são sistemas inteligentes projetados para navegar, analisar e inferir insights a partir de conjuntos de dados complexos.
Em contextos financeiros, é essencial entender relacionamentos complexos em dados. O Xlrt integra os agentes de conhecimento ao Graph RAG para atingir esse objetivo.
A ontologia financeira e a loja de gráficos
A ontologia financeira é um grafo de conhecimento que é o núcleo da abordagem Xlrt. Essa onologia atua como o modelo que fornece as regras e restrições de como as entidades financeiros se relacionam.
O armazenamento de gráficos, com base no MongoDB Atlas ou Enterprise Advanced, é a camada de banco de dados persistente que armazena a estrutura do gráfico e seus dados financeiros associados.
figura 1. Agente de conhecimento da Xlrt + sistema Graph RAG abastecido pelo MongoDB.
O armazenamento de gráficos subjacente contém dois componentes de dados consolidados:
Estrutura deontologia específica do domínio: o esquema conceitual dos nós permitidos e dos tipos de borda.
Dados financeiros anuais: as instâncias específicas do gráfico (nós e bordas) extraídas de documentos do cliente . Esses dados, obtidos a partir de documentos como relatórios anuais e extratos bancários, preenchem os nós e as bordas com valores numéricos para cada período do relatório. Essa população contínua ao longo do tempo permite que o sistema analise as tendências históricas e a evolução financeira.
Estruturação da onologia: nós e bordas
Nós: itens de linha financeiros, como receita, despesas e faturamento.
Diferenciais:relacionamentos causais ou estruturas, como a receita que afeta o resultado . Essas bordas definem a relacionamento semântica entre dois nós.
Usando Graph RAG para Recuperação Contextual
O Graph RAG combina gráficos de conhecimento (teoria dos gráficos) com técnicas de recuperação e geração de IA. O Xlrt usa o Graph RAG para basear os LLMs recuperando conhecimento relevante e informações numéricas do armazenamento de gráficos. Essa base garante que os resultados sejam contextualizados, fáticos e acionados.
O Graph RAG permite que o sistema:
Analisar dependências causais: o sistema rastreia relações de causa e efeito (bordas) e identifica como uma alteração em um item de linha financeira pode influenciar outros.
Identificar correlações i lógicas: o sistema examina as relações entre os nós para detectar inconsistências ou correlações que desabilitam a lógica financeira. Essa verificação garante a integridade dos dados.
Recuperar contexto para qualquer item de linha: o sistema consulta o gráfico, extrai nós e bordas relevantes e fornece um snapshot contextual dos dados em torno de um item de linha. Esse snapshot explica como componentes individuais interagem dentro da estrutura financeira.
Essa abordagem fornece conscientização contextual e uma melhor tomada de decisões ao revelar a estrutura e a interconectividade dos conjuntos de dados financeiros.
Ligando o Graph RAG com MongoDB e LangChain
O LangChain conecta os LLMs diretamente ao MongoDB. O componenteMongoDBGraphStore facilita esta conexão e gerencia o fluxo de dados entre o modelo de idioma e o banco de dados. Essa integração transforma dados financeiros não estruturados em insights acionados e interconectados, sem a necessidade de um mecanismo de banco de dados dedicado.
Recursos centrais do banco de dados
O sistema depende da arquitetura flexível do MongoDB para servir de base para o grafo de conhecimento:
Dados operacionais e de gráficos unificados: diferentemente das abordagens tradicionais que separam os dados de gráficos dos dados operacionais, o MongoDB armazena tanto a ontologia específica do domínio quanto as instâncias específicas de dados financeiros (nós e bordas) no mesmo formato de documento flexível. Isso permite que o sistema preencha continuamente o gráfico com novos dados de relatórios anuais ou extratos bancários sem migrações rígidas de esquema.
Traversal eficiente de gráficos: o MongoDB executa a traversal e consultas de gráficos usando o estágio de agregação $graphLookup . Esse processo permite a rápida recuperação de conhecimento financeiro interconectado relevante diretamente junto com os dados operacionais.
Integração com o MongoDBGraphStore
Embora o MongoDB forneça o mecanismo, o componente MongoDBGraphStore no LangChain atua como o orquestrador. Esse componente simplifica a implementação do Graph RAG por meio de duas funções principais:
abstração e recuperação: o
MongoDBGraphStoreabstrai agregações de banco de dados bruto, simplificando a recuperação de dados de gráficos. O componente formata automaticamente o gráfico de conhecimento recuperado em prompts ricos em contexto, otimizando os dados para o argumento agente sem exigir a construção manual de consultas.Criação dinâmica de gráficos: para preencher o gráfico, o componente usa um fluxo de trabalho dinâmico de "Extrair e carregar":
Extração de entidade: um modelo de extração de entidade baseado em LLM (inicializado dentro do componente) analisa as declarações financeiras carregadas pelo cliente. Ele converte dados não estruturados em entidades e relacionamentos de gráficos estruturados extraindo entidades nomeadas e suas conexões.
Configuração: prompts e instruções personalizados orientam o processo de extração. Estes prompts, que podem ser configurados por meio do
entity_promptparâmetro, garantem que o modelo mapeie os dados para o contexto financeiro correto.Preenchimento de gráfico: Usando o
add_documents()método, o modelo extrai e atualiza automaticamente essas entidades e relacionamentos na coleção MongoDB . Isso cria um grafo de conhecimento dinâmico que envolve instantaneamente à medida que novos documentos são processados.
Aumentando a cadeia de pensar (CoT) com feedback baseado em pontuação
Embora a recuperação do contexto correto por meio do Graph RAG seja crítica, garantir que o argumento aplicado a esses dados seja preciso é igualmente importante. O Xlrt aprimora a solicitação padrão da Cadeia de Consideração (CoT) ao introduzir um loop de pontuação que refina iterativamente a saída do modelo.
O desafio do argumento
Mesmo com o argumentos estruturados, os grandes modelos de linguagem (LLMs) podem, às vezes, entender mal o contexto ou dar saltos lógicos errôneos, levando a atordoamentos. Para mitigar esse risco, o Xlrt usa uma arquitetura de modelo duplo:
Executante LLM: gera a resposta inicial com base nos dados financeiros.
Aumento de prompt LLM: Avalia o resultado do Executante e ajusta o prompt se a qualidade for insuficiente.
O processo de pontuação
O sistema avalia cada resposta em relação a três métricas principais:
Consistência contextual: a resposta se alinha com o contexto financeiro específico fornecido?
Precisão dos Fatos: O resultado adere aos fatores conhecidos e regras de dados?
Integridade lógica: As etapas de argumento intermediárias estão conectadas e são válidas?
Se uma pontuação de resposta estiver abaixo de um determinado limite, como 60 por cento, o Aumento de Prompt LLM analisará o erro e gerará um prompt refinado — por exemplo, instruindo explicitamente o Executante LLM a "verificar a alteração percentual em comparação com o trimestre anterior." Esse ciclo se repete até que a resposta atenda aos padrões de precisão, garantindo saídas de alta confiabilidade para tarefas críticas, como a criação de notas de crédito.
Feedback do Usuário para Comentário Personalizado
Para garantir que o resultado seja relevante, o sistema usa o feedback do usuário de duas maneiras para refinar a geração de Cadeia de Consideração (CoT):
Adaptação baseada em funções: em vez de corrigir apenas erros, o sistema usa o feedback do usuário para adaptar as solicitações de CoT ao contexto específico do usuário.
Aumento dinâmico: um LLM dedicado analisa o feedback para ajustar o prompt – por exemplo, com foco na conformidade para um auditor ou no impacto comercial para um gerente.
Caso de uso: transformação dos fluxos de trabalho de documentos financeiros
O Xlrt usa sua arquitetura Graph RAG para transformar fluxos de trabalho de documento financeiros demorados. Ele usa IA de agente baseada no gráfico de conhecimento financeiro para alimentar três ofertas de produtos:
Fundamentação: fornece análise instantânea de demonstrativos financeiros, como 10-Ks, relatórios anuais e resultados financeiros preparados pela administração. Ele também fornece análise normalizada para provedores de dados e resumos inteligentes.
Contrato: fornece análise automática de contratos comerciais, infere termos comerciais para fluxos de caixa do projeto e facilita o gerenciamento organizacional de contratos.
Facturas(): permite a análise sem modelo de faturas e a avaliação automatizada de dados, garantindo um fluxo de validação superior para processamento direto.
Principais benefícios do Xlrt para análise de documentos financeiros
A automação desses fluxos de trabalho complexos oferece os seguintes benefícios:
Precisão: agentes sincronizados com o domínio, com base no gráfico de conhecimento faturado, garantem insights financeiros precisos e consistentes.
Redução de custos: o sistema reduz a dependência do trabalho manual, mantendo resultados auditáveis de alta qualidade.
Eficiência: os fluxos de trabalho automatizados de ponta a ponta reduzem drasticamente o esforço manual e permitem o processamento acelerado de dados e a tomada de decisões mais rápida.
Lógica ilustrativa da arquitetura Graph RAG do Xlrt
As etapas a seguir ilustram a lógica de implementação chave que o Xlrt usa para integrar o LangChain e seu MongoDBGraphStore componente para criar um Graph RAG para o processamento inteligente de documento . Esta versão usa o MongoDB Atlas, embora o Enterprise Advanced também seja uma opção. Xlrt optou por usar o Ollama para executar o LLM:
Preparar o ambiente
Instale as bibliotecas necessárias para interação MongoDB , integração LangChain e o Ollama para enviar solicitações aos LLMs estão instalados. A arquitetura é independente de LLM, permitindo que você conecte qualquer modelo de LLM. Para concluir este tutorial, você precisa de um cluster do Atlas executando MongoDB versão 7.0.2 ou posterior.
pip install --quiet --upgrade pymongo langchain_mongodb langchain_ollama
Definir as variáveis
MONGODB_URI = "<connection-string>" DB_NAME = "financial_kg_db" # MongoDB database to store the knowledge graph COLLECTION_NAME = "FINANCIALS" # MongoDB collection to store the knowledge graph
<connection-string> seria a string de conexão do Atlas cluster.
O <connection-string> é definido utilizando o seguinte formato:
mongodb+srv://<db_username>:<db_password>@<clusterName>.<hostname>.mongodb.net
Instancie o armazenamento de gráficos MongoDB do MongoDB do MongoDB
from langchain_mongodb.graphrag.graph import MongoDBGraphStore graph_store = MongoDBGraphStore.from_connection_string( connection_string=MONGODB_URI, database_name=DB_NAME, collection_name=COLLECTION_NAME, entity_extraction_model=chat_model # LLM – model of your choice )
Combinar contexto para aumento rápido
Depois que os dados relevantes são recuperados, o contexto recuperado do Graph RAG é combinado para aumentar o prompt para o LLM usando o LangChain e o modelo selecionado, ao qual o Ollama atende.
Exemplo de Python para construção de contexto:
from langchain_ollama import ChatOllama from langchain.prompts import PromptTemplate # Set up Ollama as the LLM with your model of choice llm = ChatOllama(model="<model of your choice>") # Define a prompt template template = """ You are an AI financial analyst. Analyze the following data and provide insights: {context} User Query: {query} """ prompt = PromptTemplate( input_variables= ["context", "query"], template=template ) chain = prompt | llm response = chain.invoke({"context": context, "query": Query}) print("Generated Insights:\n", response)
Conclusão
As organizações financeiros podem integrar o Xlrt ao MongoDB Atlas ou Enterprise Advanced para usar sistemas Graph RAG para processamento avançado de documento inteligentes e fluxos de trabalho automatizados.
Essa combinação transforma dados financeiros não estruturados em insights aplicáveis. A onologia financeira apoiada MongoDB melhora a eficiência, a precisão e a tomada de decisões estratégia.
Principais conclusões
Fundamentos de LLMs com a arquitetura MongoDB Graph RAG: ao usar uma arquitetura MongoDB Graph RAG, os LLMs são fundados em uma ontologia financeira dinâmica. Essa abordagem usa o estágio de agregação $graphLookup para atravessar relacionamentos interconectados dentro de uma base de conhecimento unificada, garantindo a recuperação precisa e sensível ao contexto.
Capacitar agentes complexos com argumentos baseados em pontuação: Além da simples recuperação, a arquitetura oferece suporte a loops de feedback avançados. Ao validar o argumento da Cadeia de Consideração em relação aos dados financeiros verificados recuperados do MongoDB, o sistema garante a precisão antes de finalizar uma resposta. Essa pontuação iterativa evita alvoroções, garantindo que cada insight seja logicamente correto e consistente com sua onologia financeira.
Transformar capacidades técnicas em valor comercial: ao usar o MongoDB para unificar documentos não estruturados e gráficos de conhecimento estruturados, as organizações podem transformar gargalos manuais, como a análise de crédito, em fluxos de trabalho automatizados e inteligentes. Essa mudança de arquitetura reduz a sobrecarga operacional e minimiza a dependência de processos manuais.