Melhore a interatividade dos aplicativos bancários usando o MongoDB Atlas Vector Search e modelos de linguagem grandes.
Casos de uso: IA generativa, Personalização
Setores: serviços financeiros
Produtos: MongoDB Atlas Vector Search
Parceiros: Amazon Readck
Visão Geral da Solução
Com os bancos interativos, os clientes de serviços financeiros se envolvem com plataformas virtuais que antecipam e atendem às suas necessidades em tempo real.
Essa abordagem usa tecnologias de Inteligência artificial generativa (Gen AI), como chatbots e assistentes virtuais, para aprimorar as operações bancárias básicas. Os bancos podem melhorar a experiência do cliente aproveitando a Gen AI para fornecer interações personalizadas e sensíveis ao contexto por meio de canais digital de autoatendimento. De chatbots movidos a IA que resolvem queries instantaneamente a análises preditivas que oferecem conselhos financeiros personalizados, os bancos interativos criam uma experiência bancária mais envolvente e intuitiva para os usuários.
Ao integrar orientadores orientados por IA à experiência de banco digital, os bancos podem fornecer respostas instantâneas e relevantes. Isso resulta em interações mais tranquilas e fáceis de usar nas quais os clientes se sentiram apoiados.
Arquiteturas de referência
Nesta solução, o MongoDB e o Amazon CamaDB armazenam documentação bancária, como termos e condições, como incorporações vetorizadas dentro de documentos MongoDB . A figura a seguir mostra a arquitetura desta solução:
Figura 1. Arquitetura bancária interativa orientada por AI
O MongoDB atua como uma camada de armazenamento de dados entre a camada de tecnologia de IA e a camada de aplicação . Isso simplifica o gerenciamento de dados ao armazenar dados não estruturados e estruturados juntos e permitir que as organizações operem com um conjunto de dados mais unificado. Ao quebrar os silos de dados, as empresas podem oferecer experiências mais consistentes aos cliente em suas plataformas virtuais.
Abordagem do modelo de dados
Essa solução usa a flexibilidade do MongoDB para armazenar blocos de texto de PDFs e suas incorporações no mesmo documento. Isso simplifica as queries e garante alto desempenho sem a necessidade de tecnologias ou recursos adicionais. Isso permite que as empresas criem aplicativos enriquecidos com IA na plataforma de banco de dados moderna e multinuvem do MongoDB, unificando dados em tempo real, não estruturados e aprimorados por IA.
A imagem abaixo mostra um exemplo dos dados utilizados nesta solução:
figura 2. documento único com blocos de texto e suas incorporações
Construir a solução
Esta solução tem os seguintes repositórios do Github:
Para executar as soluções, consulte os arquivos README nos repositórios.
A arquitetura tem o seguinte fluxo de trabalho:
1. Pré-processamento de documentos
Primeiro, os dados não estruturados baseados em texto, como PDFs de Termos e Condições, são processados e transformados em chunks usando a técnica de janela deslizante. Isso garante que os dados de transição entre chunks sejam preservados para manter a continuação e o contexto.
Uma vez que os dados não estruturados sejam transformados em chunks vetorizados, eles são passados por um modelo de incorporação para gerar incorporações vetoriais. Você pode selecionar o modelo de incorporação com base em seus requisitos. Esta demonstração usa o modelo cohere.embed-english-v3 de Cohere no Amazon Web Services Cama de Rock.
Tanto os chunks quanto seus vetores correspondentes são armazenados no MongoDB Atlas. Esta demonstração usa a estrutura SuperDuper Python para integrar modelos e fluxos de trabalho de IA com o MongoDB.
2. Pesquisa vetorial e queries
Depois que os chunks e as incorporações forem armazenados no MongoDB, você poderá usar o MongoDB Atlas Vector Search para consultas semânticas.
3. Uso do chatbot
O chatbot nesta solução é movido por MongoDB Atlas Vector Search e um LLM pré-treinado. Quando um usuário insere uma pergunta, a pergunta é vetorizada e o MongoDB Atlas Vector Search é usado para encontrar documentos com incorporações semelhantes.
Depois que os documentos relevantes são recuperados, esses dados são enviados para um LLM. Esta demonstração usa laudo da Atrópico, contido no Amazon Cama do Rock. O LLM usa os documentos recuperados como contexto para gerar uma resposta mais abrangente e precisa. Esse processo é conhecido como geração aumentada de recuperação (RAG). O RAG aprimora a capacidade do chatbot de fornecer respostas precisas ao combinar pesquisa semântica com geração de modelo de idioma.
Figura 3. Chatbot do Leafy Bank em ação
Principais Aprendizados
Os chatbots melhoram a experiência do usuário: tecnologias orientadas por IA, como os chatbots, simplificam as interações com os cliente ao fornecer respostas instantâneas e sensíveis ao contexto, permitindo que os usuários naveguem pelas operações bancárias de forma independente, sem navegar por termos e condições complexos.
O Atlas Vector Search permite a pesquisa em PDF: ao usar o chunking de dados e o Atlas Vector Search, o MongoDB permite a query eficiente de documentação legal compacta, garantindo que os clientes recebam respostas precisas e ricas em contexto.
.
Autores
Luis Pazmino Diaz, Diretor Principal FSI EMEA, MongoDB
Ainhoa Múgica, especialista sênior em soluções setoriais, MongoDB
Pedro Bereilh, especialista em soluções para o setor, MongoDB
Andrea Alamán Calderón, especialista sênior em soluções setoriais, MongoDB