Join us Sept 17 at .local NYC! Use code WEB50 to save 50% on tickets. Learn more >
MongoDB Event
Menu Docs
Página inicial do Docs
/ /
Centro de Arquitetura Atlas
/ / /

Serviços bancários interativos orientados por AI

Crie um aplicativo usando o MongoDB Atlas Vector Search e grandes modelos de linguagem para melhorar a interatividade dos aplicativos bancários.

  • Casos de uso: IA generativa, Personalização

  • Setores: serviços financeiros

  • Parceiros: Amazon Readck

Os serviços bancários interativos representam uma nova era nos serviços financeiros, em que os clientes interagem com plataformas digitais que antecipam, compreendem e atendem às suas necessidades em tempo real.

Essa abordagem utiliza tecnologias de inteligência artificial generativa (IA generativa), como chatbots e assistentes virtuais, para melhorar as operações bancárias básicas do dia a dia. Ao usar a IA generativa, os bancos podem habilitar canais digitais de autoatendimento e, ao mesmo tempo, melhorar a experiência do cliente por meio de interações personalizadas e contextualizadas. Desde chatbots com AI que resolvem consultas instantaneamente até análises preditivas que fornecem orientação financeira personalizada, os serviços bancários interativos não são mais apenas uma questão de conveniência, tratam-se de criar uma jornada bancária mais inteligente, envolvente e intuitiva para cada usuário.

Ao integrar consultores orientados por AI à experiência bancária digital, os bancos podem fornecer uma solução perfeita no próprio aplicativo que entrega respostas instantâneas e relevantes. Isso remove a necessidade de os clientes saírem do aplicativo para pesquisar páginas de documentação do banco em busca de respostas ou, pior ainda, terem que ligar para o atendimento ao cliente. O resultado é uma interação mais fluida e simples, em que os clientes se sentem apoiados na jornada de autoatendimento, livres da frustração de navegar por fontes de informação tradicionais e complicadas. Toda a experiência permanece no espaço digital, aumentando a conveniência e a eficiência.

O problema com termos e condições tradicionais é que são densos, não estruturados e não são fáceis de usar em ambientes de banco digital. Para solucionar isso, a MongoDB e seu parceiro propõem a seguinte arquitetura de referência:

Arquitetura de referência para proposta de serviços bancários interativos impulsionados por AI.

Figura 1. Arquitetura bancária interativa orientada por AI

O MongoDB é um repositório de dados operacional (ODS) que atua como uma camada intermediária entre as tecnologias de AI e a camada de aplicativo, permitindo que as organizações operem com um conjunto de dados mais unificado. Essa unificação simplifica o gerenciamento de dados, garantindo que dados estruturados, semiestruturados e não estruturados possam coexistir, o que possibilita ciclos de desenvolvimento mais rápidos e informações mais precisas orientadas por AI. Ao eliminar os silos de dados, as empresas podem oferecer experiências mais ricas e consistentes aos clientes em todas as suas plataformas digitais.

Armazenamos tanto as partes de texto do PDF quanto suas embeddings diretamente no mesmo documento na nossa coleção do MongoDB. Esta abordagem simplificada, ilustrada na imagem abaixo, permite um acesso eficiente e unificado aos dados.

Utilizando o document model flexível e dimensionável da MongoDB, podemos armazenar textos e incorporações de vetor juntos, simplificando as queries e garantindo alto desempenho sem a necessidade de soluções adicionais. Essa abordagem permite que as empresas desenvolvam aplicativos enriquecidos com AI na moderna plataforma de banco de dados multinuvem da MongoDB, unificando dados em tempo real, operacionais, não estruturados e orientados por AI. Com essa base, as empresas podem adaptar, expandir e iterar seus aplicativos com eficiência para aproveitar as oportunidades tecnológicas emergentes.

Visualização da estrutura de partes e incorporações no MongoDB
1

A etapa inicial envolve o processamento e a transformação dos dados não estruturados baseados em texto (como o PDF dos Termos e Condições), que servirão como fonte para responder às consultas dos clientes.

O documento é dividido em N partes, que são armazenadas no MongoDB Atlas. Um script personalizado analisa o documento, cria as partes e as vetoriza (conforme ilustrado na figura a seguir). O processo de divisão em partes utiliza uma técnica de janela deslizante, assegurando que os dados de transição entre as partes sejam preservados, mantendo a continuidade e o contexto.

Após o documento ser transformado em partes vetorizadas, essas partes vetorizadas são passadas por um modelo de embedding para gerar embeddings vetoriais. O modelo de embedding pode ser selecionado conforme os requisitos do usuário. Para fins de ilustração, estamos usando o Cohere 'cohere.embed-english-v3' no AWS Bedrock para a criação de incorporações.

As partes e seus vetores correspondentes são armazenados no MongoDB Atlas. Neste cenário de exemplo, estamos utilizando o SuperDuper (um framework Python de código aberto que integra modelos e fluxos de trabalho de IA diretamente com o MongoDB) como o orquestrador de processos, permitindo soluções de IA empresariais personalizadas mais flexíveis e dimensionáveis.

2

Depois de armazenarmos as partes e suas incorporações no MongoDB, podemos começar a utilizar o MongoDB Atlas Vector Search para queries semânticas.

3

O próximo passo envolve a criação de um aplicativo. Neste caso, um chatbot interativo. Esse chatbot é alimentado pelo MongoDB Atlas Vector Search e um LLM pré-treinado. Quando um usuário insere uma pergunta, ela é primeiro vetorizada, e o MongoDB Atlas Vector Search é usado para encontrar documentos com incorporações semelhantes.

Depois que os documentos relevantes forem recuperados, a próxima etapa é enviar esses dados para um LLM. Nesse caso, usamos o Amazon Bedrock como o contêiner do LLM. Para este caso de uso específico, estamos utilizando o Claude da Anthropic. O LLM recebe tanto a pergunta quanto os documentos recuperados, utilizando os documentos como contexto para gerar uma resposta mais abrangente e precisa. Esse framework é conhecido como arquitetura de geração aumentada de recuperação (RAG). A RAG melhora a capacidade do chatbot de fornecer respostas precisas integrando pesquisa semântica com a geração de modelos de linguagem avançados.

Chatbot simulado do Leafy Bank em ação

Figura 2. Chatbot do Leafy Bank em ação

  • Tecnologias impulsionadas por AI, como chatbots, simplificam as interações com clientes ao fornecer respostas instantâneas e contextualizadas, permitindo que os usuários naveguem pelas operações bancárias de maneira independente, sem se deparar com termos e condições complexos.

  • Ao utilizar o Atlas Vector Search e a divisão de documentos em partes, o MongoDB permite a consulta eficiente de documentos jurídicos densos, garantindo que os clientes recebam respostas precisas e contextualizadas.

  • A integração do MongoDB com pesquisa vetorial, LLMs e infraestrutura de pesquisa dedicada permite que as instituições financeiras dimensionem soluções de AI, melhorando o desempenho e a capacidade de resposta à medida que as demandas dos clientes aumentam.

  • Luis Pazmino Diaz, Diretor Principal FSI EMEA, MongoDB

  • Ainhoa Múgica, especialista sênior em soluções setoriais, MongoDB

  • Pedro Bereilh, especialista em soluções para o setor, MongoDB

  • Andrea Alamán Calderón, especialista sênior em soluções setoriais, MongoDB

Voltar

Portfólio de investimentos com tecnologia de AI agêntica

Nesta página