MongoDB Atlas Vector Search와 대규모 언어 모델을 사용하여 은행 애플리케이션의 상호 작용성을 개선하는 애플리케이션을 빌드하세요.
산업: 금융 서비스
파트너: Amazon Bedrock
솔루션 개요
인터랙티브 뱅킹은 고객이 디지털 플랫폼과 실시간으로 상호작용하며, 이 플랫폼이 고객의 필요를 예측하고 이해하며 충족시키는 금융 서비스의 새로운 시대를 의미합니다.
이 접근 방식은 챗봇, 가상 비서와 같은 생성형 AI 기술을 활용해 일상적으로 이루어지는 기본 은행 업무를 개선합니다. 은행은 생성형 AI를 활용하여 셀프 서비스 디지털 채널을 구현하고, 맞춤형 및 상황 인식형 상호작용으로 고객 경험을 향상시킬 수 있습니다. 즉각적으로 문의를 해결하는 AI 기반 챗봇부터 맞춤형 금융 조언을 제공하는 예측 분석에 이르기까지, 인터랙티브 뱅킹은 단순한 편리함을 넘어 모든 사용자에게 더 스마트하고, 매력적이며, 직관적인 뱅킹 여정을 제공합니다.
AI 기반 자문 기능을 디지털 뱅킹 경험에 통합하여, 은행은 즉각적이고 관련성 있는 원활한 앱 내 솔루션을 제공할 수 있습니다. 이로 인해 고객은 앱을 떠나 은행 문서 페이지를 뒤져 답변을 검색하거나, 더 나쁜 경우 고객 서비스에 전화하는 불편을 겪을 필요가 없습니다. 결과적으로, 고객은 전통적인 복잡한 정보 소스를 탐색하는 데 따른 불편함 없이, 자기 서비스 여정에서 지원을 받는다는 느낌을 받으며, 더 부드럽고 사용자 친화적인 상호작용을 경험하게 됩니다. 전체 경험은 디지털 공간 내에 머물러 있어 편리함과 효율성을 높입니다.
참조 아키텍처
기존 텀의 문제점은 복잡하고 비구조적이며 디지털 뱅킹 환경에서 쉽게 사용할 수 없다는 것입니다. 이 문제를 해결하기 위해 MongoDB와 파트너는 다음의 참조 아키텍처를 제안합니다.
그림 1. AI 기반 인터랙티브 뱅킹 아키텍처
MongoDB는 AI 기술과 애플리케이션 계층 사이의 중간 계층으로 작동하는 운영 데이터 저장소(ODS)로서, 조직이 보다 통합된 데이터 세트로 운영할 수 있도록 지원합니다. 이 통합은 데이터 관리를 간소화해 구조화, 반구조화, 비구조화 데이터의 공존을 지원함으로써 개발 주기를 단축하고 AI 기반 인사이트의 정확성을 높입니다. 데이터 사일로를 해소함으로써 기업은 디지털 플랫폼 전반에 걸쳐 더 풍부하고 일관적인 고객 경험을 제공할 수 있습니다.
데이터 모델 접근 방식
PDF의 텍스트 청크와 해당 임베딩을 MongoDB 컬렉션의 동일한 문서에 직접 저장합니다. 아래 이미지에 설명된 이 간소화된 접근 방식은 효율적이며 통합적인 데이터 액세스를 지원합니다.
MongoDB의 유연하고 확장 가능한 문서 모델을 사용하면 텍스트와 벡터 임베딩을 함께 저장할 수 있어, 추가 솔루션을 덧붙이지 않고도 쿼리를 간소화하고 높은 성능을 보장할 수 있습니다. 이 접근 방식은 회사가 MongoDB의 현대적이고 멀티 클라우드 데이터베이스 플랫폼을 활용하여 AI 강화 애플리케이션을 구축할 수 있게 하며, 실시간, 운영, 비정형 및 AI 주도 데이터를 통합합니다. 이 기반을 통해 기업들은 새로운 기술적 기회를 포착하기 위해 애플리케이션을 효율적으로 적응, 확장 및 반복 개선할 수 있습니다.
솔루션 구축
문서 전처리 및 청크화
초기 단계는 고객 쿼리 답변을 위한 소스로 사용될 텍스트 기반 비정형 데이터(예: 이용 약관 PDF)를 처리하고 변환하는 작업입니다.
문서는 N개의 청크로 나뉘어 MongoDB Atlas에 저장됩니다. 사용자 정의 스크립트가 문서를 스캔하고 청크를 생성한 후 벡터화합니다(아래 그림에 설명되어 있습니다). 청크 프로세스는 슬라이딩 창 기술을 사용하여 청크 간 전환 데이터가 유지되면서 연속성과 맥락을 유지합니다.
문서가 벡터화된 청크로 변환되면 임베딩 모델을 거쳐 벡터 임베딩을 생성합니다. 임베딩 모델은 사용자의 요구 사항에 따라 선택할 수 있습니다. 예시에서는 AWS Bedrock에서 Cohere 'cohere.embed-english-v3'를 사용해 임베딩을 생성했습니다.
청크와 그에 상응하는 벡터는 MongoDB Atlas에 저장됩니다. 이 샘플 시나리오에서는 SuperDuper(AI 모델과 워크플로를 MongoDB와 직접 통합하는 오픈 소스 Python 프레임워크)를 프로세스 오케스트레이터로 사용하여 보다 유연하고 확장 가능한 맞춤형 엔터프라이즈 AI 솔루션을 가능하게 합니다.
벡터 검색 및 쿼리
MongoDB에 청크와 임베딩을 모두 저장한 후, MongoDB Atlas Vector Search를 활용하여 시맨틱 쿼리를 시작할 수 있습니다.
챗봇 UI 구축
다음 단계는 애플리케이션, 즉 대화형 챗봇을 구축하는 것입니다. 이 챗봇은 MongoDB Atlas Vector Search와 사전 훈련된 LLM에 의해 구동됩니다. 사용자가 질문을 입력하면, 그 질문은 먼저 벡터화되고, MongoDB Atlas Vector Search를 사용하여 유사한 임베딩을 가진 문서를 찾습니다.
관련 문서가 조회되면 다음 단계는 이 데이터를 LLM으로 전송하는 것입니다. 이 경우, Amazon Bedrock을 LLM 컨테이너로 사용합니다. 이 특정 사용 사례에서는 Anthropic의 Claude를 활용하고 있습니다. LLM은 질문과 조회된 문서를 모두 수신하여, 문서를 컨텍스트로 사용하여 더 포괄적이고 정확한 응답을 생성합니다. 이 프레임워크는 검색 증강 생성(RAG) 아키텍처로 알려져 있습니다. RAG는 시맨틱 검색과 강력한 언어 모델 생성을 결합하여 챗봇의 정확한 답변 제공 기능을 향상시킵니다.

그림 2. 작동 중인 Leafy Bank 챗봇
주요 학습 사항
챗봇과 같은 AI 기반 기술은 즉각적이고 상황 인식 응답을 제공하여 고객 상호작용을 간소화하고, 사용자가 복잡한 텀을 읽지 않고도 독립적으로 은행 작업을 처리할 수 있도록 합니다.
MongoDB는 Atlas Vector Search와 문서 청크를 사용하여 밀도 높은 법률 문서에 대한 효율적인 쿼리를 가능하게 하여, 고객이 정확하고 맥락이 풍부한 답변을 받을 수 있도록 합니다.
MongoDB의 벡터 검색, 대규모 언어 모델(LLM), 전용 검색 인프라와의 통합은 금융 기관이 AI 솔루션을 확장하여 고객 요구가 증가함에 따라 성능과 응답성을 향상시킵니다.
사용된 기술 및 제품
MongoDB 개발자 데이터 플랫폼
파트너 기술
작성자
Luis Pazmino Diaz, FSI EMEA 수석, MongoDB
Ainhoa Múgica, MongoDB 산업 솔루션 수석 전문가
Pedro Bereilh, MongoDB 산업 솔루션
Andrea Alaman Calderon, MongoDB 산업 솔루션 수석 전문가