Menu Docs
Página inicial do Docs
/

Serviços bancários interativos orientados por AI

Melhore a interatividade dos aplicativos bancários usando o MongoDB Atlas Vector Search e modelos de linguagem grandes.

  • Casos de uso: IA generativa, Personalização

  • Setores: serviços financeiros

  • Produtos: MongoDB Atlas Vector Search

  • Parceiros: Amazon Readck

Com os bancos interativos, os clientes de serviços financeiros se envolvem com plataformas virtuais que antecipam e atendem às suas necessidades em tempo real.

Essa abordagem usa tecnologias de Inteligência artificial generativa (Gen AI), como chatbots e assistentes virtuais, para aprimorar as operações bancárias básicas. Os bancos podem melhorar a experiência do cliente aproveitando a Gen AI para fornecer interações personalizadas e sensíveis ao contexto por meio de canais digital de autoatendimento. De chatbots movidos a IA que resolvem queries instantaneamente a análises preditivas que oferecem conselhos financeiros personalizados, os bancos interativos criam uma experiência bancária mais envolvente e intuitiva para os usuários.

Ao integrar orientadores orientados por IA à experiência de banco digital, os bancos podem fornecer respostas instantâneas e relevantes. Isso resulta em interações mais tranquilas e fáceis de usar nas quais os clientes se sentiram apoiados.

Nesta solução, o MongoDB e o Amazon CamaDB armazenam documentação bancária, como termos e condições, como incorporações vetorizadas dentro de documentos MongoDB . A figura a seguir mostra a arquitetura desta solução:

Arquitetura de referência para proposta de serviços bancários interativos impulsionados por AI.

Figura 1. Arquitetura bancária interativa orientada por AI

O MongoDB atua como uma camada de armazenamento de dados entre a camada de tecnologia de IA e a camada de aplicação . Isso simplifica o gerenciamento de dados ao armazenar dados não estruturados e estruturados juntos e permitir que as organizações operem com um conjunto de dados mais unificado. Ao quebrar os silos de dados, as empresas podem oferecer experiências mais consistentes aos cliente em suas plataformas virtuais.

Essa solução usa a flexibilidade do MongoDB para armazenar blocos de texto de PDFs e suas incorporações no mesmo documento. Isso simplifica as queries e garante alto desempenho sem a necessidade de tecnologias ou recursos adicionais. Isso permite que as empresas criem aplicativos enriquecidos com IA na plataforma de banco de dados moderna e multinuvem do MongoDB, unificando dados em tempo real, não estruturados e aprimorados por IA.

A imagem abaixo mostra um exemplo dos dados utilizados nesta solução:

Visualização da estrutura de partes e incorporações no MongoDB

figura 2. documento único com blocos de texto e suas incorporações

Esta solução tem os seguintes repositórios do Github:

Para executar as soluções, consulte os arquivos README nos repositórios.

A arquitetura tem o seguinte fluxo de trabalho:

1. Pré-processamento de documentos

Primeiro, os dados não estruturados baseados em texto, como PDFs de Termos e Condições, são processados e transformados em chunks usando a técnica de janela deslizante. Isso garante que os dados de transição entre chunks sejam preservados para manter a continuação e o contexto.

Uma vez que os dados não estruturados sejam transformados em chunks vetorizados, eles são passados por um modelo de incorporação para gerar incorporações vetoriais. Você pode selecionar o modelo de incorporação com base em seus requisitos. Esta demonstração usa o modelo cohere.embed-english-v3 de Cohere no Amazon Web Services Cama de Rock.

Tanto os chunks quanto seus vetores correspondentes são armazenados no MongoDB Atlas. Esta demonstração usa a estrutura SuperDuper Python para integrar modelos e fluxos de trabalho de IA com o MongoDB.

2. Pesquisa vetorial e queries

Depois que os chunks e as incorporações forem armazenados no MongoDB, você poderá usar o MongoDB Atlas Vector Search para consultas semânticas.

3. Uso do chatbot

O chatbot nesta solução é movido por MongoDB Atlas Vector Search e um LLM pré-treinado. Quando um usuário insere uma pergunta, a pergunta é vetorizada e o MongoDB Atlas Vector Search é usado para encontrar documentos com incorporações semelhantes.

Depois que os documentos relevantes são recuperados, esses dados são enviados para um LLM. Esta demonstração usa laudo da Atrópico, contido no Amazon Cama do Rock. O LLM usa os documentos recuperados como contexto para gerar uma resposta mais abrangente e precisa. Esse processo é conhecido como geração aumentada de recuperação (RAG). O RAG aprimora a capacidade do chatbot de fornecer respostas precisas ao combinar pesquisa semântica com geração de modelo de idioma.

Chatbot simulado do Leafy Bank em ação

Figura 3. Chatbot do Leafy Bank em ação

  • Os chatbots melhoram a experiência do usuário: tecnologias orientadas por IA, como os chatbots, simplificam as interações com os cliente ao fornecer respostas instantâneas e sensíveis ao contexto, permitindo que os usuários naveguem pelas operações bancárias de forma independente, sem navegar por termos e condições complexos.

  • O Atlas Vector Search permite a pesquisa em PDF: ao usar o chunking de dados e o Atlas Vector Search, o MongoDB permite a query eficiente de documentação legal compacta, garantindo que os clientes recebam respostas precisas e ricas em contexto.

  • .

  • Luis Pazmino Diaz, Diretor Principal FSI EMEA, MongoDB

  • Ainhoa Múgica, especialista sênior em soluções setoriais, MongoDB

  • Pedro Bereilh, especialista em soluções para o setor, MongoDB

  • Andrea Alamán Calderón, especialista sênior em soluções setoriais, MongoDB

  • Aplicativo de cartão de crédito com IA generativa

  • Avalie os riscos de empréstimos comerciais com a IA generativa

  • Gerenciamento de portfólio de investimentos com AI agêntica

Voltar

Portfólio de investimentos com tecnologia de AI agêntica

Nesta página