Menu Docs
Página inicial do Docs
/

Orquestração de pagamentos alimentada por IA da Agentic

Modernize os pagamentos com a Agentic AI, um modelo canônico baseado em JSON e o MongoDB Atlas para conectar ISO 20022, ISO 8583 e Stablecoins.

Casos de uso: Inteligência artificial, Pagamentos

Setores: Serviços financeiros

Produtos e ferramentas: MongoDB Atlas, MongoDB Atlas Vector Search, Atlas Search

Parceiros: Amazon Camaraphyllum, LangChain, LangGraph

Atualmente, os processadores de pagamento enfrentam um problema de interoperabilidade. Eles devem lidar com mensagens de cartão legado (ISO 8583), padrões modernos de dados avançados (ISO 20022) e cadeias de pagamento criptografadas em constante mudança. Os sistemas tradicionais dependem de pipelines rígidos de extração, transformação e carga (ETL) que são interrompidos quando um novo campo aparece ou uma normas locais muda.

Para conectar a infraestrutura legado e o futuro das financiamento, um modelo de pagamento canônico nativo de JSON atua como a base essencial para a orquestração moderna. Em um 20022 cenário pós-ISO, ele resolve a fragmentação do dialeto semântica vista em várias implementações, como CBPR+ e FedNew. Ele evita riscos de truncamento de dados identificados pelo Swift, em que os sistemas internos legado 20022 removem dados ISO ricos porque não têm capacidade para armazenar campos expandidos. Como o modelo captura toda a profundidade da mensagem em um formato JSON flexível, o sistema não perde dados durante a tradução.

Juntamente com uma abstração de API universal, a plataforma permite que as equipes de T Esse ambiente permite o desenvolvimento e a reutilização acelerados, à medida que novas ferrovias de pagamento – da UPI da Índia às stablecoins – podem ser integradas como extensões modulares em vez de reescritas de códigos principais.

Além da velocidade de desenvolvimento, esse modelo estabelece um esquema de pagamento centralizado e a administração de dados, permitindo atualizações de um ponto único em que um novo campo regulatório é definido uma vez e herdado em toda a lógica de transformação. Essa mudança de esquemas SQL rígidos para um modelo de documento flexível elimina a sobrecarga técnica e o ônus de manutenção típicos dos hubs legado . Ao normalizar os dados em um modelo de dados realmente padronizado e consistente no início do ciclo de vida, o modelo facilita o compromisso inicial de conformidade e o reparo proativo a bordo. Por fim, ele fornece a administração definida e a agilidade operacional necessária para navegar em um mundo multirail que está em constante evolução sob novas regulamentações, como a Marketplaces in Crypto-Assets (MiCA).

O vídeo a seguir fornece um exemplo de um pagamento internacional de DE para JP com transliteração katakanajaponesa orientada por agentes do nome do Credor:

Esta solução demonstra como um modelo de pagamento canônico com Agentic AI pode redefinir o processamento de pagamentos. Ao mudar de esquemas SQL rígidos para um modelo canônico flexível baseado em JSON, as bancos e bancos podem habilitar agentes de IA a fazer a ingestão, normalização, roteamento e reparo autônomos de transações em qualquer sistema de pagamento, como uma transferência SWIFT ou uma transferência USDC em um serviço público. cadeia de blocos.

Um modelo de dados baseado em JSON é a base crítica para esse sistema de processamento Rail de múltiplos pagamentos devido às seguintes propriedades:

  • API Native: Os pagamentos modernos, especialmente em criptografia e finkey, usam comunicação orientada por API (REST/GraphQL/RPC), que é inerentemente baseada em JSON. Um formato nativo reduz a latência e a complexidade da tradução.

  • Flexibilidade do esquema: o JSON lida com campos comuns (valor, remetente) e, ao mesmo tempo, acomodar campos específicos da ferrovia (por exemplo, limites de gas para criptomoedas, códigos zengin para o Japão, informações de remessa para 20022 ISO) sem quebrar o esquema principal.

  • Preparação de IA: os LLMs ensinam código e JSON. Os agentes podem analisar a estrutura de dados diretamente, detectando anomalias e realizando mapeamentos complexos com mais eficiência do que com bitmaps binários opacos ou tabelas SQL rígidas.

Essa demonstração de processamento de pagamentos inclui uma Plataforma de Processamento de Pagamentos que lida com o ciclo de vida completo da transação, desde a integração do formato até a execução e o reparo. A arquitetura delega responsabilidades específicas a componentes especializados:

  • Config Builder: acelera a integração do formato durante o desenvolvimento. Os pipelines de agregação extraem mapeamentos de campo de configurações existentes, enquanto um LLM sugere mapeamentos para campos desconhecidos. Novos formatos que antes levavam meses para serem integrados podem ser configurados em semanas. Depois que as configurações estiverem em vigor, a plataforma lidará com o processamento de transações em tempo real.

  • Serviço detradução de mensagens: as mensagens recebidas passam por um sistema de processamento orientado por configuração. A maioria dos campos segue regras determinísticas armazenadas no MongoDB que são construídas no processo de construção descrito anteriormente. Campos não estruturados complexos, como rota de informações de remessa para uma via de IA alimentada por Class.

  • Serviço de resolução agente: um sistema multiagente que corrige transações com falha na validação. Um árbitro encaminha tarefas para agentes especializados: o agente de resolução encontra valores corretos para campos ausentes ou inválidos (usando pesquisas de banco de dados , Atlas Search ou inferência de IA) e o agente de execução aplica as alterações aprovadas e registra uma faixa de auditar .

Arquitetura da Plataforma de Processamento de Pagamentos mostrando a tradução de mensagens, o roteamento JSON canônico e a resolução de agente com o MongoDB Atlas

figura 1. Arquitetura da Plataforma de Processamento de Pagamentos mostrando a tradução de mensagens, o roteamento JSON canônico e a resolução de agente com o MongoDB Atlas

Conforme o diagrama de arquitetura, o MongoDB serve como a Camada de Dados Operacionais (ODL). O sistema armazena cada transação como um único documento contendo JSON canônico normalizado e uma faixa de auditar completa das decisões do agente . As configurações de conversão residem em uma collection separada, sendo as alterações de formato orientadas por dados. Essa estrutura fornece a auditabilidade necessária para a conformidade normativa.

Esta demonstração mostra quatro recursos principais em que o esquema flexível do MongoDB e a IA de agente transformam as operações de pagamento.

Os sistemas legados geralmente codificam lógica de tradução (por exemplo, "o campo 4 mapeia o campo 32A"). Essa solução armazena regras e metadados de tradução no MongoDB junto com os dados, tornando a lógica de tradução orientada por dados.

Em vez de recompilar o código para alterar um mapeamento, você atualiza um documento de configuração no MongoDB. O serviço de conversor lê essas regras dinamicamente — extrair padrões, mapeamentos de campo e caminhos de saída — para normalizar mensagens ISO 8583 ou SWIFT MT de entrada no formato JSON canônico.

Transformação orientada por configuração:

# Load config from MongoDB
config = db.conversion_configs.find_one({"_id": "MT103_to_JSON"})
# Extract fields using patterns from config["extract"]
for field_id, pattern in config["extract"].items():
extracted[field_id] = re.search(pattern, message).group(1)
# Transform using rules from config["map"]
for mapping in config["map"]:
value = extracted[mapping["from"]]
if "ai" not in mapping: # RULES lane
output[mapping["to"]] = value
else: # AI lane
ai_fields.append({"value": value, "field_type": mapping["ai"]})

Alguns campos resistir a padrões de regex, como o campo SWIFT 70 (informações de remessa) podem conter fins de pagamento de texto livre, referências de faturas e instruções em várias linhas. A configuração marca esses campos para processamento de IA ("ai": "remessa"), e o LLM extrai dados estruturados do texto não estruturado. Essa abordagem mantém regras determinísticas para a maioria dos campos, mas lida com o restante complexo por inferência.

Novos formatos de mensagem são habilitados por meio de inserções de documento — o código do conversor permanece inalterado, mantendo a lógica de tradução fora do ciclo de implantação.

Com regras e metadados históricos armazenados no banco de dados, você pode usar a IA generativa (LLMs) para acelerar a integração de novos formatos de pagamento.

Para adicionar suporte para um novo tipo de mensagem, forneça uma mensagem de exemplo. O Adaptive Learning Service carrega todas as configurações de conversão existentes do MongoDB e extrai campos usando análise específica do formato. Ele compara os IDs de campo detectados com os mapeamentos das configurações existentes. Por exemplo, se o campo "32A" existir em MT103_to_JSON, esse mapeamento exato será reutilizado.

Para campos não encontrados em qualquer configuração existente, um LLM sugere mapeamentos que você analisa e refina. Isso gera um esquema de configuração pronto para revisão e implantação humanos. Os fluxos de pagamento que antes levavam meses para serem integrados agora podem ser integrados mais rapidamente.

Aprender adaptável com aggregation e LLM:

# Aggregation pipeline: extract field mappings from ALL existing configs
pipeline = [
{"$addFields": {"extract_array": {"$objectToArray": "$extract"}}},
{"$unwind": "$map"},
{"$project": {"field_id": "$map.from", "mapping": "$map", "source_config": "$_id"}},
{"$group": {"_id": "$field_id", "mapping": {"$first": "$mapping"}}}
]
field_lookup = {doc["_id"]: doc for doc in db.conversion_configs.aggregate(pipeline)}
# Match detected fields against learned patterns
for field_id in detected_fields:
if field_id in field_lookup:
matched[field_id] = field_lookup[field_id]["mapping"]
else:
unknown.append(field_id)
# For unknown fields: LLM suggests mappings constrained by format spec
suggestions = bedrock.invoke_claude(f"Map {unknown} to {target_format} fields")

O agregação pipeline cria uma pesquisa de campo para mapeamento a partir de todas as configurações em uma query. Campos conhecidos obtêm correspondências instantâneas. Campos desconhecidos obtêm sugestões de LLM limitadas pelos campos compatíveis do formato de destino.

Os pagamentos transnacionais frequentemente falham devido aos requisitos de compensação local, como códigos ausentes, scripts incorretos ou dados corporativos incompletos. Os sistemas tradicionais enfileiram essas exceções para análise manual, geralmente levando dias para serem resolvidas.

O agente de resolução lida com essas exceções usando ferramentas que o LLM seleciona automaticamente com base em docstrings e prompts do sistema. O padrão orienta o LLM para opções mais baratas e rápidas primeiro.

Seleção de ferramenta do agente de resolução:

from langchain_core.tools import tool
from langgraph.prebuilt import create_react_agent
@tool
def atlas_search(collection: str, query: str, search_fields: list, fuzzy: bool = True) -> dict:
"""Search MongoDB using Atlas Search. Use fuzzy=False for exact match first."""
pipeline = [{"$search": {
"index": f"{collection}_search",
"text": {"query": query, "path": search_fields, "fuzzy": {"maxEdits": 2} if fuzzy else {}}
}}]
results = list(db[collection].aggregate(pipeline))
return {"found": bool(results), "top_result": results[0] if results else None}
@tool
def vector_search(collection: str, query: str) -> dict:
"""Semantic search using Atlas Vector Search - matches by meaning, not keywords."""
embedding = voyage_client.embed([query], model="voyage-3").embeddings[0]
pipeline = [{"$vectorSearch": {
"index": f"{collection}_vector", "path": "embedding",
"queryVector": embedding, "numCandidates": 100, "limit": 3
}}]
results = list(db[collection].aggregate(pipeline))
return {"found": bool(results), "top_result": results[0] if results else None}
agent = create_react_agent(model=llm, tools=[atlas_search, vector_search])

O LLM lê docstrings de ferramentas e prompts do sistema para determinar qual ferramenta chamar. O Atlas Search lida com pesquisas exatas e correspondência tolerante a erros de digitação. O Vector Search lida com a classificação semântica em que as palavras-chave não correspondem, mas o significado corresponde. Para ilustrar esses recursos na prática, considere os seguintes cenários de pagamento:

  • Japão (transliteração katakana): um pagamento para Tóquio exige o nome do destinatário na escrita katakana, mas a mensagem recebida contém caracteres latinos (por exemplo, Heinhard Mueller). O agente primeiro verifica a bank_details coleção em busca de uma tradução conhecida. Se não for encontrado, ele usará o Atlas Search para correspondência difusa. Como contingência, ele chama um LLM para transliterar o nome para o katakana ("jato , ,,,,,,,,,,,,,,,")).

  • Índia (pesquisa de código IFSC): um pagamento para a Índia requer um código IFSC para ser encaminhado para a agencia correta, mas o remetente fornece apenas um nome de banco e uma cidade. O agente consulta a ifsc_codes collection em busca de uma correspondência exata. Se a entrada contiver erros de digitação (por exemplo, "HDFC Connout" em vez de "Connutil place"), o Atlas Search lidará com a correspondência difusa para encontrar o código correto.

Os bancos operam em um ambiente de alto risco, onde mudanças autônomas exigem supervisão. Antes de qualquer reparo ser aplicado, o fluxo de trabalho do LangGraph é pausado usando um mecanismo interrupt(), apresentado a alteração proposta para aprovação dos humanos.

O usuário vê:

  • Valor original: o campo como chegou (por exemplo, "Heinhard Mueller").

  • Valor proposto: o que o agente encontrou (por exemplo, " . . . . " .

  • Motivo: Qual ferramenta foi usada e por que.

O usuário pode então:

  • Aprovar: o agente de execução aplica a alteração e a registra na faixa de auditar .

  • Rejeitar: o fluxo de trabalho termina e o valor original é preservado.

  • Modificar: o usuário fornece um valor corrigido, que o sistema aplica.

Esse processo garante total auditabilidade: os usuários revisam cada decisão do agente antes da execução, e o sistema registra cada alteração com valores anteriores e posteriores e registros de data e hora.

Implementação do HITL do LangGraph:

from langgraph.types import interrupt
def human_review_node(state: dict) -> dict:
"""Pause workflow for human approval."""
# interrupt() halts execution, returns data to caller, waits for resume
review_decision = interrupt({
"original_value": state.get("original_value"),
"proposed_value": state.get("solution", {}).get("proposed_value"),
"confidence": state.get("solution", {}).get("confidence")
})
# When resumed: {"approved": True/False, "modified_value": "..."}
return {"approved": review_decision.get("approved"), "human_review": review_decision}
# Workflow: resolution → human_review → execution
workflow.add_edge("resolution", "human_review") # Always review before execution
app = workflow.compile(checkpointer=MemorySaver()) # Checkpointer persists state

A função interrupt() é o mecanismo chave. Quando o fluxo de trabalho atinge esse nó, ele serializa o estado atual, retorna os dados da revisão para o chamador da API e aguarda. O frontend exibe esses dados para o usuário. Quando o usuário envia a decisão, a API retoma o fluxo de trabalho com a decisão injetada como o valor de retorno de interrupt().

O modelo JSON canônico fornece uma abstração interna estável para integrar várias ferrovias de pagamento, normalizando a principal intenção de pagamento – como partes, ativos, valores e instruções – em uma estrutura única e consistente. Usando o modelo de documento polimórfico do MongoDB , detalhes de execução e metadados específicos do Rail são armazenados lado a lado com campos canônicos sem exigir esquemas ou modelos de dados separados. Isso mantém a complexidade do protocolo fora dos sistemas upstream e downstream, permitindo que diferentes Rails consumam a mesma representação de pagamento.

A demonstração mostra esse padrão em ação com uma integração Solana: pagamentos contendo campos de eliminação de criptomoedas são roteados para um serviço Solana que executa transferências reais em devnet.

Integração com o Solana Service:

# Step 1: Convert incoming message to canonical JSON
hop1_result = await converter.convert(
source_format="pacs.008", # or MT103, ISO8583, etc.
target_format="JSON",
message=raw_message
)
# Step 2: Parse the canonical JSON from conversion result
canonical_json = json.loads(hop1_result['converted_message'])
# Step 3: Check canonical JSON for crypto settlement fields
if canonical_json.get('crypto_blockchain') and canonical_json.get('crypto_receiver_wallet'):
# Route to Solana
solana_service.transfer(
to_pubkey=canonical_json['crypto_receiver_wallet'],
amount_sol=50000
)
# step 4: Solana Service Class
class SolanaService:
def transfer(self, to_pubkey: str, amount_sol: float) -> dict:
response = self.client.send_raw_transaction(bytes(tx))
self.client.confirm_transaction(response.value)
return {
"signature": str(response.value),
"explorer_url": f"https://explorer.solana.com/tx/{response.value}?cluster=devnet"
}

Ao contrário dos caminhos de pagamento tradicionais, a cadeia de blocos fornece prova de compensação integrada. Cada transferência retorna um URL do Solana Explorer em que os usuários verificam o emissor, o receptor, o valor, o timestamp e o status de confirmação da transação na cadeia. Essa Transparência não está disponível com SWIFT ou redes de cartão, onde a prova de acordo requer reconciliação de back-escritório.

A demonstração é executada no Solana devnet, que usa o mesmo protocolo da rede principal: As transações são assinadas criptograficamente, propagadas para validadores e registradas permanentemente.

O MongoDB fornece a plataforma de dados unificada para toda a Plataforma de Processamento de Pagamentos — oferecendo suporte ao desenvolvimento (configuração de formato) e ao tempo de execução (processamento de transações, decisões de agente , Trilhas de auditar ) em um único sistema.

A plataforma usa vários recursos principais do MongoDB para simplificar esses fluxos de trabalho financeiros complexos:

  • Flexibilidade de esquema: O modelo de documento MongoDB alinha-se naturalmente com formatos de pagamento canônicos. Os desenvolvedores podem desenvolver modelos de dados sem migrações, armazenar dados relacionados (JSON canônico, metadados, faixa de auditar ) em um único documento e lidar com diversas estruturas de mensagens sem conflitos de esquema.

  • Atlas Search para resolução tolerante a erro de digitação: o agente de resolução usa o Atlas Search quando as pesquisas exatas falham – tolerância a erros de digitação até 2 distância de edição, queries compostas em vários campos, nenhuma infraestrutura de pesquisa externa necessária.

  • Atlas Vector Search para Correspondência Semântica: Para classificação além do texto exato — similaridade semântica para categorizar descrições de pagamento (por exemplo, "pagando ordenados" mapeia o código de finalidade SALA), construído no Atlas sem um banco de dados vetorial separado.

  • Aggregation Pipelines for Adaptive Learning: O Adaptive Learning Service usa $objectToArray e $unwind para criar pesquisas de campo para mapeamento a partir de todas as configurações em uma query: processamento em nível de banco de dados para reutilização instantânea de padrões.

  • Atualizações automáticas de documentos: a atomicidade de um único documento garante que o agente de execução atualize os campos de pagamento e registre a faixa de auditar em uma operação – crítica para a conformidade regulatória em serviços financeiros de alto risco.

Juntos, esses recursos fazem do MongoDB o ODL para processamento de pagamentos orientado por IA - dando suporte às exigencias do sistema multirail moderno.

O MongoDB armazena dois tipos de documentos que alimentam o pipeline de processamento de pagamentos.

1
{
"transaction_ref": "MED-CH-ZA-2024-001",
"value_date": "2024-12-15",
"amount": "180000.00",
"currency": "CHF",
"debtor_name": "SWISS PHARMA INTERNATIONAL AG",
"debtor_account": "CH9300762011623852957",
"debtor_bank": "UBSWCHZH80A",
"creditor_name": "SOUTH AFRICAN HEALTH SUPPLIES PTY LTD",
"creditor_account": "ZA123456789012345678901",
"creditor_bank": "ABSAZAJJXXX",
"remittance_info": "INVOICE MED-ZA-2024-5678",
"charge_bearer": "SHA"
"metadata": {...}
}

Esta estrutura plana atua como uma ponte universal com os seguintes mapeamentos:

  • MT103 mapeia para JSON, que mapeia para pacs.008.

  • MT202 mapeia para JSON, que mapeia para pacs.009.

Um conceito semântica equivale a um nome de campo e o mesmo mapeamento em todos os formatos. Cada documento também inclui um objeto metadata contendo detalhes de processamento e um audit_trail que registra cada decisão do agente (valor antigo, novo valor, ferramenta usada, registro de data e hora).

2

O sistema permite conversões de vários saltos por meio de JSON e conversões diretas para caminhos comuns. O exemplo a seguir mostra uma configuração de conversão direta:

{
"_id": "MT103_to_pacs.008",
"extract": {
"20": ":20:([^\\n:]+)",
"32A": ":32A:([^\\n:]+)",
"50K": ":50K:([\\s\\S]*?)(?=:[0-9])"
},
"map": [
{"from": "20", "to": ["transaction_ref"]},
{"from": "32A", "to": ["value_date", "currency", "amount"], "split": [6, 9]},
{"from": "50K", "to": ["debtor_account", "debtor_name"], "multiline": true},
{"from": "70", "to": "remittance_info", "ai": "remittance"}
],
"output": {
"transaction_ref": "Document.FIToFICstmrCdtTrf.CdtTrfTxInf.PmtId.InstrId",
"amount": "Document.FIToFICstmrCdtTrf.CdtTrfTxInf.IntrBkSttlmAmt.#text"
}
}

Três seções definem a conversão:

  1. extract: extrai campos usando regex.

  2. map: Transforma-os (divisão de compostos, formatação de datas, roteamento para IA).

  3. output: coloca os valores no formato de destino.

As inserções de documentos permitem novos formatos de mensagem, removendo a lógica de tradução do ciclo de implementação. Para novas ferrovias de pagamento, o modelo canônico acelera a conectividade servindo como um ponto de integração JSON universal, garantindo que a lógica de negócios principal permaneça intocada à medida que você escala.

Para a implementação completa, siga as instruções no repositório GitHub.

A Plataforma de Processamento de Pagamentos consiste em dois microsserviços: um Serviço de Tradução de Mensagens que lida com a conversão de formato por meio de um pipeline de três faixas — incluindo um Construtor de Configuração para integração de formatos em tempo de desenvolvimento — e um Agente de Pagamento que corrige transações inválidas usando um fluxo de trabalho multiagente LangGraph. Ambos os serviços compartilham o MongoDB Atlas como seu ODL.

1

O conversor transforma mensagens entre formatos (MT103, ISO 20022, ISO 8583) usando a configuração armazenada no MongoDB em vez da lógica codificada.

  1. Configurar o Pipeline de Tradução: configure o extrator para rotear campos com base na complexidade: padrões determinísticos de regex para campos estruturados, como referências e valores de transações, e chamadas LLM por meio do AWS Camadas para campos não estruturados, como informações de remessa.

  2. Armazenar configurações de conversão no MongoDB: cada documento de configuração contém três seções: extract (padrão regex), map (transformações de campo ) e output (caminhos de formato de destino). O conversor os lê no tempo de execução - nenhuma alteração de código necessária para novos formatos.

  3. Construa o gerador de saída: O construtor usa campos transformados e constrói o formato de destino. Para a 20022 ISO, o construtor gera um XML válido com namespaces adequados. Para destinos JSON, ele gera a estrutura canônica plana.

2

O agente corrige transações que falham na validação – códigos IFSC ausentes, scripts incorretos, dados incompletos de destinatários – usando um fluxo de trabalho com vários agentes.

  1. Criar o Agente Supervisor: esse agente recebe uma tarefa de reparo (por exemplo, "Credor_name precisa de Kakana para o Japão") e determina se deve ser roteado para o Agente de Resolução para pesquisa ou diretamente para a Execução se a correção for conhecida.

  2. Crie o agente de resolução com ferramentas: equipe-o com três ferramentas: atlas_search (pesquisa de banco de dados com correspondência exata ou difusa), vector_search (semelhança semântica para classificação) e transliterate_text (conversão de script baseada em LLM). O agente determina qual ferramenta usar com base no contexto do problema.

  3. Adicionar o checkpoint de RevisãoHumana : Use a função do LangGraph interrupt() para pausar o fluxo de trabalho antes de aplicar alterações. O usuário visualiza o valor original, a correção proposta, a pontuação de confiança e o argumento. Eles podem aprovar, rejeitar ou modificar antes que o fluxo de trabalho seja retomado.

  4. Implemente o agente de execução: na aprovação, esse agente grava o valor corrigido no JSON canônico e anexa uma entrada à faixa de auditar com valor antigo, novo valor, ferramenta usada e registro de data e hora.

3

Ao integrar um novo formato de pagamento, o sistema gera automaticamente a configuração aprendendo com os padrões existentes.

  1. Carregar configurações existentes: o Adaptive Learning Service consulta o MongoDB para todas as configurações de conversão e cria um mapa de IDs de campo para seus mapeamentos canônicos (por exemplo, o campo "32A" mapeia para,value_date currencye amount).

  2. Analise a mensagem de exemplo: ao usar extratores específicos de formato – como 8583 padrões de tag SWIFT, posições de campo ISO e caminhos XML – o serviço identifica todos os campos presentes no novo formato.

  3. Corresponder padrões conhecidos e inferir campos desconhecidos: para campos que existem em outras configurações, o sistema reutiliza o mapeamento exato. Para campos não encontrados em nenhum lugar, o serviço chama um LLM com contexto sobre o tipo de formato para sugerir um mapeamento.

  4. Gerar e revisar a configuração: o serviço gera um rascunho de documento de configuração com todos os mapeamentos. O sistema sinaliza campos abaixo do limite de confiança para revisão humana. Uma vez aprovado, ele insere o documento no MongoDB- o conversor o processa imediatamente.

  • Pipelines de agregação para aprendizado adaptável: Crie pesquisas de campo para mapeamento a partir de todas as configurações existentes em uma única query usando $objectToArray $unwinde. Campos conhecidos recebem mapeamentos automáticos; campos desconhecidos recebem sugestões LLM limitadas por especificações de formato.

  • Atlas Search por tolerância a erros de digitação: quando as pesquisas exatas do banco de dados falham, a pesquisa difusa com distância de edição lida com erros ortográficos (por exemplo , "HDFC Connout" mapeia para "HDFC Connutil place") sem cair na inferência de IA mais lenta.

  • Conversão orientada por configuração: armazene padrões de extração, mapeamentos de campo e caminhos de saída em documentos do MongoDB em vez de no código do aplicação . A adição de um novo formato de pagamento se torna uma inserção no banco de dados , não uma implantação.

  • Conformidade com humanos no loop: use o interrupt() mecanismo LangGraph para pausar os fluxos de trabalho dos agente antes de aplicar alterações, apresentar as correções propostas aos usuários e retomar somente após aprovação explícita.

  • Padrão de vários agentes do Supervisor: Direcione tarefas de pesquisa – como pesquisa e transliteração de IFSC – para um agente de resolução com ferramentas de banco de dados e tarefas de execução – como atualizações de campo – para um agente de execução. Essa separação garante experiência direcionada e faixas de auditar mais limpas.

  • Camada de dados operacional unificada: armazene JSON canônico, configurações de conversão e faixas de auditar no MongoDB Atlas. Essa centralização elimina os silos de dados entre os caminhos de pagamento e fornece o contexto completo da transação que os agentes precisam.

  • Wei You Pan, MongoDB

  • Kiran Tulsulkar, MongoDB

  • Ainhoa Múgica, MongoDB

  • Daniel Jamir, MongoDB

  • Interface unificada para aplicativos RAG

  • Mitigação de Crimes Financeiros com o MongoDB Atlas

  • Serviços bancários interativos orientados por AI

Voltar

Interface unificada para aplicativos RAG

Nesta página