Join us at MongoDB.local London on 7 May to unlock new possibilities for your data. Use WEB50 to save 50%.
Register now >
Menu Docs
Página inicial do Docs
/

Orquestração de pagamentos com IA agêntica

Modernize pagamentos com IA agêntica, um modelo canônico baseado em JSON e MongoDB Atlas para conectar ISO 20022, ISO 8583 e stablecoins.

Casos de uso: Inteligência Artificial, Pagamentos

Setores: Serviços financeiros

Produtos e ferramentas: MongoDB Atlas, MongoDB Atlas Vector Search, MongoDB Atlas Search

Parceiros: Amazon Bedrock, LangChain, LangGraph

Os processadores de pagamento enfrentam atualmente um problema de interoperabilidade. Eles precisam lidar com mensagens de cartão legadas (ISO 8583), padrões modernos de dados ricos (ISO 20022) e trilhas de pagamento de criptomoedas em evolução. Sistemas tradicionais dependem de pipelines rígidos de extração, transformação e carga (ETL), que falham quando surge um novo campo ou quando uma regulamentação local muda.

Para conectar a infraestrutura legado e o futuro das finanças, um modelo de pagamento canônico nativo JSON atua como a base essencial para a orquestração moderna. Em um cenário pós-ISO 20022, ele resolve a fragmentação do dialeto semântico observado em várias implementações, como CPPR+ e FedNow. Ele evita riscos de truncamento de dados identificados pelo SWIFT, em que sistemas internos legados eliminam dados ISO 20022 ricos porque não têm capacidade de armazenar campos expandidos. Como o modelo captura toda a profundidade da mensagem em um formato JSON flexível, o sistema não perde dados durante a tradução.

Juntamente com uma abstração de API universal, a plataforma permite que as equipes de TI abandonem bitmaps binários opacos e padrões fragmentados para um ambiente prático para o desenvolvedor. Esse ambiente permite o desenvolvimento e a reutilização acelerados, pois novas formas de pagamento, da UPI da Índia às stablecoins, podem ser integradas como extensões modulares em vez de regravações do código principal.

Além da velocidade de desenvolvimento, este modelo estabelece um esquema de pagamentos e governança de dados centralizado, permitindo atualizações em um único ponto, em que um novo campo regulatório é definido uma vez e herdado em toda a lógica de transformação. Essa mudança de esquemas SQL rígidos para um document model flexível elimina a dívida técnica e a carga de manutenção típica de hubs legados. Ao normalizar os dados em um modelo de dados verdadeiramente padronizado e consistente no início do ciclo de vida, o modelo facilita o engajamento precoce de compliance e o reparo proativo em trânsito. Em última análise, ele fornece a supervisão definida e a agilidade operacional necessárias para navegar em um mundo multi-rail que está em constante evolução sob novas regulamentações, como o Markets in Crypto-Assets (MiCA).

O vídeo a seguir fornece um exemplo de um pagamento transfronteiriço de DE para JP com transliteração japonesa em katakana do nome do credor orientada por agente:

Essa solução demonstra como um modelo de pagamento canônico com a IA agêntica pode redefinir o processamento de pagamentos. Ao mudar de esquemas SQL rígidos para um modelo canônico flexível e baseado em JSON, as instituições financeiras podem capacitar agentes de IA a ingerir, normalizar, rotear e restaurar transações de forma autônoma através de qualquer plataforma de pagamento, como uma transferência SWIFT ou USDC em uma blockchain pública.

Um modelo de dados baseado em JSON é a base fundamental para esse sistema de processamento de múltiplos trilhos de pagamento devido às seguintes propriedades:

  • API Native: os pagamentos modernos, especialmente em cripto e fintech, usam comunicação orientada por API (REST/GraphQL/RPC), que é inerentemente baseada em JSON. Um formato nativo reduz a latência e a complexidade da tradução.

  • Flexibilidade de esquema: o JSON lida com campos comuns (valor, transacional) ao mesmo tempo em que acomoda campos específicos do setor (por exemplo, limites de metadado para criptomoedas, códigos zengin para o Japão, informações de remessa para ISO 20022) sem quebrar o esquema principal.

  • Prontidão para IA: os LLMs treinam em código e JSON. Os agentes podem analisar a estrutura de dados diretamente, detectando anomalias e realizando mapeamentos complexos de forma mais eficaz do que com mapeamentos binários opacos ou tabelas SQL rígidas.

Esta demonstração de processamento de pagamentos inclui uma Plataforma de Processamento de Pagamentos que lida com o ciclo de vida completo da transação, desde a integração do formato até a execução e reparo. A arquitetura delega responsabilidades específicas a componentes especializados:

  • Config Builder: acelera a integração do formato durante o desenvolvimento. Os pipelines de agregação extraem mapeamentos de campo das configurações existentes, enquanto um LLM sugere mapeamentos para campos desconhecidos. Novos formatos que antes demoravam meses para serem integrados podem ser configurados em poucas semanas. Depois que as configurações estiverem em vigor, a plataforma lida com o processamento de transações em tempo real.

  • Serviço de tradução de mensagens: as mensagens recebidas passam por um sistema de processamento orientado por configuração. A maioria dos campos segue regras determinísticas armazenadas no MongoDB que são construídas no processo de compilação descrito anteriormente. Campos não estruturados complexos, como informações de remessa, direcionam para uma linha de IA com tecnologia Claude.

  • Serviço de resolução agêntico: um sistema multiagente que conserta transações que falham na validação. Um supervisor roteia tarefas para agentes especializados: o Agente de Resolução localiza valores corretos para campos ausentes ou inválidos (usando pesquisas de banco de dados, Atlas Search ou inferência de IA), e o Agente de Execução aplica alterações aprovadas e registra uma trilha de auditoria.

Arquitetura da plataforma de processamento de pagamentos mostrando tradução de mensagens, roteamento JSON canônico e resolução agêntica com o MongoDB Atlas

Figura 1. Arquitetura da plataforma de processamento de pagamentos mostrando tradução de mensagens, roteamento JSON canônico e resolução agêntica com o MongoDB Atlas

Conforme mostrado no diagrama de arquitetura, o MongoDB serve como Camada de Dados Operacionais (ODL). O sistema armazena cada transação como um único documento contendo JSON canônico normalizado e um registro completo de auditoria das decisões do agente. As configurações de conversão ficam em uma coleção separada, fazendo com que as alterações de formato sejam orientadas por dados. Essa estrutura proporciona a auditabilidade necessária para o compliance regulatório.

Esta demonstração mostra quatro principais funcionalidades em que o esquema flexível do MongoDB e a IA agêntica transformam as operações de pagamento.

Os sistemas legados frequentemente codificam a lógica de tradução (por exemplo, "o campo 4 é mapeado para o campo 32A"). Essa solução armazena regras de tradução e metadados no MongoDB junto com os dados, fazendo com que a lógica de tradução seja orientada por dados.

Em vez de recompilar o código para alterar um mapeamento, basta atualizar um documento de configuração no MongoDB. O serviço conversor lê essas regras dinamicamente, extraindo padrões, mapeamentos de campo e caminhos de saída, para normalizar mensagens ISO 8583 ou SWIFT MT de entrada no formato JSON canônico.

Transformação orientada por configuração:

# Load config from MongoDB
config = db.conversion_configs.find_one({"_id": "MT103_to_JSON"})
# Extract fields using patterns from config["extract"]
for field_id, pattern in config["extract"].items():
extracted[field_id] = re.search(pattern, message).group(1)
# Transform using rules from config["map"]
for mapping in config["map"]:
value = extracted[mapping["from"]]
if "ai" not in mapping: # RULES lane
output[mapping["to"]] = value
else: # AI lane
ai_fields.append({"value": value, "field_type": mapping["ai"]})

Alguns campos resistem a padrões regex, como o campo SWIFT 70 (informações de remessa), que pode conter finalidades de pagamento de texto livre, referências de faturas e instruções em várias linhas. A configuração marca esses campos para processamento de IA ("ai": "remittance"), e o LLM extrai dados estruturados do texto não estruturado. Essa abordagem mantém regras determinísticas para a maioria dos campos, mas lida com o restante complexo por meio de inferência.

Novos formatos de mensagem são habilitados por meio de inserções de documento; o código do transformador permanece inalterado, mantendo a lógica de tradução fora do ciclo de implantação.

Com regras e metadados históricos armazenados no banco de dados, você pode usar IA generativa (LLMs) para acelerar a integração de novos formatos de pagamento.

Para adicionar suporte para um novo tipo de mensagem, forneça uma mensagem de amostra. O Serviço de Aprendizagem Adaptativa carrega todas as configurações de conversão existentes do MongoDB e extrai campos usando uma análise específica do formato. Ele combina os IDs de campo capturados com os mapeamentos das configurações existentes. Por exemplo, se o campo "32A" existir em MT103_to_JSON, esse mapeamento exato será reutilizado.

Para campos não encontrados em nenhuma configuração existente, um LLM sugere mapeamentos que você pode revisar e refinar. Isso gera uma configuração de rascunho pronta para revisão manual e implantação. As redes de pagamento que antes levavam meses para serem integradas agora podem ser conectadas muito mais rapidamente.

Aprendizagem adaptativa com agregação e LLM:

# Aggregation pipeline: extract field mappings from ALL existing configs
pipeline = [
{"$addFields": {"extract_array": {"$objectToArray": "$extract"}}},
{"$unwind": "$map"},
{"$project": {"field_id": "$map.from", "mapping": "$map", "source_config": "$_id"}},
{"$group": {"_id": "$field_id", "mapping": {"$first": "$mapping"}}}
]
field_lookup = {doc["_id"]: doc for doc in db.conversion_configs.aggregate(pipeline)}
# Match detected fields against learned patterns
for field_id in detected_fields:
if field_id in field_lookup:
matched[field_id] = field_lookup[field_id]["mapping"]
else:
unknown.append(field_id)
# For unknown fields: LLM suggests mappings constrained by format spec
suggestions = bedrock.invoke_claude(f"Map {unknown} to {target_format} fields")

O pipeline de agregação constrói uma consulta de correspondência de campo para mapeamento a partir de todas as configurações em uma única consulta. Campos conhecidos obtêm correspondências instantâneas. Os campos desconhecidos recebem sugestões do LLM limitadas aos campos suportados pelo formato de destino.

Os pagamentos transfronteiriços frequentemente falham devido a requisitos de compensação locais, como códigos ausentes, scripts incorretos ou dados institucionais incompletos. Os sistemas tradicionais colocam essas exceções em fila para análise manual, o que geralmente leva dias para serem resolvidas.

O agente de resolução lida com essas exceções utilizando ferramentas que o LLM seleciona autonomamente com base em docstrings e prompts do sistema. O padrão orienta o LLM primeiramente para opções mais econômicas e rápidas.

Seleção da ferramenta de agente de resolução:

from langchain_core.tools import tool
from langgraph.prebuilt import create_react_agent
@tool
def atlas_search(collection: str, query: str, search_fields: list, fuzzy: bool = True) -> dict:
"""Search MongoDB using Atlas Search. Use fuzzy=False for exact match first."""
pipeline = [{"$search": {
"index": f"{collection}_search",
"text": {"query": query, "path": search_fields, "fuzzy": {"maxEdits": 2} if fuzzy else {}}
}}]
results = list(db[collection].aggregate(pipeline))
return {"found": bool(results), "top_result": results[0] if results else None}
@tool
def vector_search(collection: str, query: str) -> dict:
"""Semantic search using Atlas Vector Search - matches by meaning, not keywords."""
embedding = voyage_client.embed([query], model="voyage-3").embeddings[0]
pipeline = [{"$vectorSearch": {
"index": f"{collection}_vector", "path": "embedding",
"queryVector": embedding, "numCandidates": 100, "limit": 3
}}]
results = list(db[collection].aggregate(pipeline))
return {"found": bool(results), "top_result": results[0] if results else None}
agent = create_react_agent(model=llm, tools=[atlas_search, vector_search])

O LLM lê as docstrings da ferramenta e os prompts do sistema para determinar qual ferramenta chamar. O Atlas Search lida com pesquisas exatas e correspondências com tolerância a erros de digitação. A pesquisa vetorial lida com a classificação semântica em que as palavras-chave não correspondem, mas o significado sim. Para ilustrar essas funcionalidades na prática, considere os seguintes cenários de pagamento:

  • Japão (transliteração do Katakana): um pagamento para Tóquio exige o nome do beneficiário no script do Katakana, mas a mensagem recebida contém caracteres latinos (por exemplo, Heinrich Mueller). O agente primeiro verifica a coleção bank_details em busca de uma tradução conhecida. Se não for encontrado, ele usará o Atlas Search para correspondência aproximada. Como alternativa, ele chama um LLM para transliterar o nome para Katakana ("ハインリッヒ・ミュラー").

  • Índia (pesquisa de código IFSC): um pagamento para a Índia requer um código IFSC para ser encaminhado à agência correta, mas o remetente fornece apenas o nome do banco e a cidade. O agente consulta a coleção ifsc_codes para obter uma correspondência exata. Se a entrada contiver erros de digitação (por exemplo, "HDFC Connaught" em vez de "Connaught Place"), o Atlas Search lidará com a correspondência difusa para encontrar o código correto.

Os bancos operam em um ambiente de alto risco, onde mudanças autônomas exigem supervisão. Antes de qualquer reparo ser aplicado, o fluxo de trabalho LangGraph é interrompido usando um mecanismo interrupt(), apresentando a alteração proposta para aprovação humana.

O usuário vê:

  • Valor original: o campo como chegou (por exemplo, "Heinrich Mueller").

  • Valor proposto: o que o agente encontrou (por exemplo, "ハイン リッヒ・ミュラー").

  • Motivo: qual ferramenta foi usada e por quê.

O usuário pode então:

  • Aprovar: o agente de execução aplica a alteração e a registra na trilha de auditoria.

  • Rejeitar: o fluxo de trabalho termina, e o valor original é preservado.

  • Modificar: o usuário fornece um valor corrigido, que o sistema então aplica.

Esse processo garante total auditabilidade: os usuários revisam cada decisão do agente antes da execução, e o sistema registra cada alteração com valores e registros de data e hora de antes e depois.

Implementação HITL do LangGraph:

from langgraph.types import interrupt
def human_review_node(state: dict) -> dict:
"""Pause workflow for human approval."""
# interrupt() halts execution, returns data to caller, waits for resume
review_decision = interrupt({
"original_value": state.get("original_value"),
"proposed_value": state.get("solution", {}).get("proposed_value"),
"confidence": state.get("solution", {}).get("confidence")
})
# When resumed: {"approved": True/False, "modified_value": "..."}
return {"approved": review_decision.get("approved"), "human_review": review_decision}
# Workflow: resolution → human_review → execution
workflow.add_edge("resolution", "human_review") # Always review before execution
app = workflow.compile(checkpointer=MemorySaver()) # Checkpointer persists state

A função interrupt() é o principal mecanismo. Quando o fluxo de trabalho chega a esse nó, ele serializa o estado atual, retorna os dados de revisão para o chamador da API e aguarda. O frontend exibe esses dados para o usuário. Quando o usuário envia a decisão, a API retoma o fluxo de trabalho com a decisão injetada como o valor de retorno de interrupt().

O modelo JSON canônico fornece uma abstração interna estável para integrar múltiplos trilhos de pagamento, normalizando a intenção central de pagamento, como partes, ativos, valores e instruções, em uma única estrutura consistente. Usando o MongoDB polymorphic document model, detalhes e metadados específicos de execução para trilhos são armazenados junto com campos canônicos, sem necessidade de esquemas ou modelos de dados separados. Isso mantém a complexidade do protocolo fora dos sistemas upstream e downstream, ao mesmo tempo em que permite que diferentes trilhos consumam a mesma representação de pagamento.

A demonstração mostra esse padrão na prática com uma integração Solana: os pagamentos contendo campos de resolução de criptomoedas são roteados para um serviço Solana que executa transferências reais no devnet.

Integração de serviços Solana:

# Step 1: Convert incoming message to canonical JSON
hop1_result = await converter.convert(
source_format="pacs.008", # or MT103, ISO8583, etc.
target_format="JSON",
message=raw_message
)
# Step 2: Parse the canonical JSON from conversion result
canonical_json = json.loads(hop1_result['converted_message'])
# Step 3: Check canonical JSON for crypto settlement fields
if canonical_json.get('crypto_blockchain') and canonical_json.get('crypto_receiver_wallet'):
# Route to Solana
solana_service.transfer(
to_pubkey=canonical_json['crypto_receiver_wallet'],
amount_sol=50000
)
# step 4: Solana Service Class
class SolanaService:
def transfer(self, to_pubkey: str, amount_sol: float) -> dict:
response = self.client.send_raw_transaction(bytes(tx))
self.client.confirm_transaction(response.value)
return {
"signature": str(response.value),
"explorer_url": f"https://explorer.solana.com/tx/{response.value}?cluster=devnet"
}

Ao contrário das plataformas de pagamento tradicionais, a blockchain fornece prova de liquidação integrada. Cada transferência retorna um URL do Solana Explorer onde os usuários verificam o remetente da transação on-chain, o destinatário, o valor, o carimbo de data/hora e o status de confirmação. Essa transparência não está disponível com SWIFT ou redes de cartões, onde a prova de liquidação exige reconciliação de back office.

A demonstração é executada no Solana devnet, que utiliza o mesmo protocolo da mainnet: as transações são assinadas criptograficamente, propagadas para validadores e registradas permanentemente.

O MongoDB fornece a plataforma de dados unificada para toda a plataforma de processamento de pagamentos, compatível tanto com o desenvolvimento (configuração de formato) quanto com o tempo de execução (processamento de transações, decisões de agente, trilhas de auditoria) em um único sistema.

A plataforma utiliza várias capacidades centrais do MongoDB para simplificar esses fluxos de trabalho financeiros complexos.

  • Flexibilidade de esquema: o MongoDB document model alinha-se naturalmente com os formatos de pagamento canônicos. Os desenvolvedores podem desenvolver modelos de dados sem migrações, armazenar dados relacionados (JSON canônico, metadados, trilhas de auditoria) em um único documento, e lidar com diversas estruturas de mensagens sem conflitos de esquema.

  • Atlas Search para resolução de tolerância a erros de digitação: o agente de resolução usa o Atlas Search quando as pesquisas exatas falham, com tolerância a erros de digitação até uma distância de edição de 2, queries compostas em vários campos; não é necessária infraestrutura de pesquisa externa.

  • Atlas Vector Search para correspondência semântica: para classificação além do texto exato — similaridade semântica para categorizar descrições de pagamento (por exemplo, "pagamento de salários" é mapeado para o código de finalidade SALA), integrado no Atlas sem um banco de dados vetorial separado.

  • Pipelines de agregação para aprendizagem adaptativa: o serviço de aprendizagem adaptativa usa $objectToArray e $unwind para construir pesquisas de mapeamento de campo para todas as configurações em uma única consulta; processamento em nível de banco de dados para reutilização instantânea de padrões.

  • Atualizações Automáticas de Documento: a atomicidade de documento único garante que o Agente de Execução atualize campos de pagamento e registre a trilha de auditoria em uma operação, algo fundamental para a conformidade regulatória em serviços financeiros de alto risco.

Juntos, essas funcionalidades tornam o MongoDB o EAD para o processamento de pagamentos orientado por IA, apoiando as demandas das finanças multirail modernas.

O MongoDB armazena dois tipos de documentos que alimentam o pipeline de processamento de pagamentos.

1
{
"transaction_ref": "MED-CH-ZA-2024-001",
"value_date": "2024-12-15",
"amount": "180000.00",
"currency": "CHF",
"debtor_name": "SWISS PHARMA INTERNATIONAL AG",
"debtor_account": "CH9300762011623852957",
"debtor_bank": "UBSWCHZH80A",
"creditor_name": "SOUTH AFRICAN HEALTH SUPPLIES PTY LTD",
"creditor_account": "ZA123456789012345678901",
"creditor_bank": "ABSAZAJJXXX",
"remittance_info": "INVOICE MED-ZA-2024-5678",
"charge_bearer": "SHA"
"metadata": {...}
}

Essa estrutura plana atua como uma ponte universal com os seguintes mapeamentos:

  • MT103 mapeia para JSON, que mapeia para pacs.008.

  • MT202 mapeia para JSON, que mapeia para pacs.009.

Um conceito semântico é igual a um nome de campo e ao mesmo mapeamento em todos os formatos. Cada documento também inclui um metadata objeto contendo detalhes em processamento e um audit_trail que registra cada decisão do agente (valor antigo, valor novo, ferramenta usada, carimbo de data/hora).

2

O sistema oferece suporte tanto a conversões multihop via JSON quanto a conversões diretas para caminhos comuns. O exemplo a seguir mostra uma configuração de conversão direta:

{
"_id": "MT103_to_pacs.008",
"extract": {
"20": ":20:([^\\n:]+)",
"32A": ":32A:([^\\n:]+)",
"50K": ":50K:([\\s\\S]*?)(?=:[0-9])"
},
"map": [
{"from": "20", "to": ["transaction_ref"]},
{"from": "32A", "to": ["value_date", "currency", "amount"], "split": [6, 9]},
{"from": "50K", "to": ["debtor_account", "debtor_name"], "multiline": true},
{"from": "70", "to": "remittance_info", "ai": "remittance"}
],
"output": {
"transaction_ref": "Document.FIToFICstmrCdtTrf.CdtTrfTxInf.PmtId.InstrId",
"amount": "Document.FIToFICstmrCdtTrf.CdtTrfTxInf.IntrBkSttlmAmt.#text"
}
}

Três seções definem a conversão:

  1. extract: Extrai campos usando regex.

  2. map: Transforma-os (dividindo compósitos, formatando datas, roteando para IA).

  3. output: coloca os valores no formato de destino.

As inserções de documentos permitem novos formatos de mensagem, removendo a lógica de tradução do ciclo de implantação. Para novas plataformas de pagamento, o modelo canônico acelera a conectividade servindo como um ponto de integração JSON universal, garantindo que a principal lógica de negócios permaneça inalterada à medida que você cresce.

Para a implementação completa, siga as instruções no repositório do GitHub.

A Plataforma de Processamento de Pagamentos consiste em dois microsserviços: um Serviço de Tradução de Mensagens que gerencia a conversão de formatos por meio de um pipeline de três faixas, incluindo um Construtor de Configuração para a integração de formatos em tempo de desenvolvimento; e um Agente de Pagamento que corrige transações inválidas usando um fluxo de trabalho multiagente LangGraph. Ambos os serviços compartilham o MongoDB Atlas como sua ODL.

1

O conversor transforma mensagens entre formatos (MT103, ISO 20022, ISO 8583) usando configurações armazenadas no MongoDB em vez de lógica codificada de forma fixa.

  1. Configure o pipeline de tradução: configure o extrator para rotear os campos com base na complexidade: padrões regex determinísticos para campos estruturados, como referências e valores de transações, e chamadas LLM por meio do AWS Bedrock para campos não estruturados, como informações de remessa.

  2. Armazene configurações de conversão no MongoDB: cada documento de configuração contém três seções: extract (padrões regex), map (transformações de campo) e output (caminhos de formato de destino). O conversor lê esses em tempo de execução — sem necessidade de alterações de código para novos formatos.

  3. Construa o gerador de saída: o construtor recebe os campos transformados e constrói o formato de destino. Para ISO 20022, o construtor gera XML válido com namespaces apropriados. Para destinos JSON, ele gera a estrutura canônica plana.

2

O agente conserta transações que falham na validação, como códigos IFSC ausentes, scripts incorretos, dados incompletos do beneficiário, usando um fluxo de trabalho multiagente.

  1. Crie o Agente Supervisor: Este agente recebe uma tarefa de correção (por exemplo, "creditor_name precisa de Katakana para o Japão") e determina se deve encaminhar para o Agente de Resolução para pesquisa ou diretamente para a Execução, se a correção já for conhecida.

  2. Construa o Resolution Agent com ferramentas: equipe-o com três ferramentas: atlas_search (pesquisa no banco de dados com correspondência exata ou difusa), vector_search (similaridade semântica para classificação) e transliterate_text (conversão de script baseada em LLM). O agente determina qual ferramenta usar com base no contexto do problema.

  3. Adicione o checkpoint de revisão humana: use a função interrupt() do LangGraph para pausar o fluxo de trabalho antes de aplicar alterações. O usuário visualiza o valor original, a correção proposta, o índice de confiança e o raciocínio. Eles podem aprovar, rejeitar ou modificar antes que o fluxo de trabalho seja retomado.

  4. Implemente o agente de execução: após a aprovação, esse agente grava o valor correto no JSON canônico e anexa uma entrada à trilha de auditoria com valor antigo, novo valor, ferramenta usada e carimbo de data/hora.

3

Ao integrar um novo formato de pagamento, o sistema gera automaticamente a configuração aprendendo com os padrões existentes.

  1. Carregue configurações existentes: o Adaptive Learning Service consulta o MongoDB para todas as configurações de conversão e cria um mapa de IDs de campo para seus mapeamentos canônicos (por exemplo, o campo "32A" mapeia para value_date, currency e amount).

  2. Analise a mensagem de exemplo: usando extratores de formato específico, como padrões de tags SWIFT, posições de campo ISO 8583 e caminhos XML, o serviço identifica todos os campos presentes no novo formato.

  3. Combine padrões conhecidos e infira campos desconhecidos: para campos que existem em outras configurações, o sistema aproveita o mapeamento exato. Para campos não encontrados em lugar algum, o serviço chama um LLM com contexto sobre o tipo de formato para sugerir um mapeamento.

  4. Gere e revise a configuração: o serviço gera um documento de configuração de rascunho com todos os mapeamentos. O sistema sinaliza campos abaixo do limite de confiança para revisão humana. Após a aprovação, ele insere o documento no MongoDB e o conversor o processa imediatamente.

  • Pipelines de agregação para aprendizagem adaptativa: crie pesquisas de campo para mapeamento a partir de todas as configurações existentes em uma única query usando $objectToArray e $unwind. Os campos conhecidos recebem mapeamentos automáticos; os campos desconhecidos recebem sugestões de LLM limitadas pelas especificações de formato.

  • Atlas Search para tolerância a erros de digitação: quando as buscas exatas no banco de dados falham, a busca difusa com distância de edição lida com erros de digitação (por exemplo, "HDFC Connaught" mapeia para "HDFC Connaught Place") sem recorrer à inferência de IA mais lenta.

  • Conversão orientada por configuração: armazene padrões de extração, mapeamentos de campos e caminhos de saída em documentos do MongoDB em vez de código de aplicativo. Adicionar um novo formato de pagamento se torna um inserto de banco de dados, não uma implantação.

  • Compliance com supervisão humana: use o mecanismo LangGraph interrupt() para pausar fluxos de trabalho de agente antes de aplicar alterações, apresentar correções propostas aos usuários e retomar somente após aprovação explícita.

  • Padrão multiagente supervisor: direcione tarefas de pesquisa, como consultas e transliteração de IFSC, para um Agente de Resolução com ferramentas de banco de dados, e tarefas de execução, como atualizações de campos, para um Agente de Execução. Essa separação garante uma especialização focada e trilhas de auditoria mais claras.

  • Camada de dados operacionais unificada: armazene JSON canônico, configurações de conversão e trilhas de auditoria no MongoDB Atlas. Essa centralização elimina os silos de dados entre plataformas de pagamento e fornece o contexto completo da transação que os agentes precisam.

  • Wei You Pan, MongoDB

  • Kiran Tulsulkar, MongoDB

  • Ainhoa Múgica, MongoDB

  • Daniel Jamir, MongoDB

  • Interface unificada para aplicativos RAG

  • Mitigação de Crimes Financeiros com o MongoDB Atlas

  • Serviços bancários interativos orientados por AI

Voltar

Interface unificada para aplicativos RAG

Nesta página