使用MongoDB Atlas Vector Search 和大型语言模型提高银行应用程序的交互性。
行业:金融服务
合作伙伴:Amazon Bedrock
解决方案概述
通过交互式银行业务,金融服务客户可以使用实时预测并满足其需求的数字平台。
这种方法使用聊天机器人和虚拟助手等生成式人工智能 (Gen AI) 技术来增强基本的银行业务。银行可以利用 Gen AI通过自助数字渠道提供量身定制的上下文感知交互,从而改善客户体验。从即时解决查询的AI聊天机器人到提供量身定制的财务建议的预测分析,交互式银行为用户创造了更具吸引力和直观的银行体验。
通过将AI驱动的顾问集成到数字银行体验中,银行可以提供即时且相关的答案。这样可以实现更顺畅、更人性化的交互,让客户感到受到支持。
参考架构
在此解决方案中, MongoDB和Amazon BedRock 将银行文档(例如条款和条件)存储为MongoDB文档中的矢量化嵌入。下图展示了该解决方案的架构:
图1。AI 驱动的交互式银行架构
MongoDB充当AI技术层和应用程序层之间的数据存储层。这样可以将非结构化和结构化数据存储在一起,并允许组织使用更统一的数据集进行操作,从而简化数据管理。通过打破数据孤岛,企业可以在其数字平台上提供更一致的客户体验。
数据模型方法
该解决方案利用 MongoDB 的灵活性,将 PDF 中的文本数据段及其嵌入内容存储在同一文档中。这可以简化查询并确保高性能,而无需其他技术或功能。这使得公司能够在 MongoDB 的现代多云数据库平台上构建AI丰富的应用程序,统一实时、非结构化和AI增强的数据。
下图显示了此解决方案中使用的数据示例:
图 2。包含文本块及其嵌入的单个文档
构建解决方案
此解决方案具有以下Github存储库:
要运行解决方案,请参阅存储库中的 README 文件。
该架构具有以下工作流程:
1。文档预处理
首先,使用滑动窗口技术处理基于文本的非结构化数据,例如条款和条件 PDF,并将其转换为数据段。这可确保保留数据段之间的过渡数据,以保持连续性和上下文。
将非结构化数据转换为矢量化数据段后,将通过嵌入模型生成矢量嵌入。您可以根据需要选择嵌入模型。此演示使用Amazon Web Services Bedrock 上的 Cohere cohere.embed-english-v3 模型。
数据段及其相应的向量都存储在MongoDB Atlas中。该演示使用SuperDuper Python框架将AI模型和工作流程与MongoDB集成。
2.向量搜索与查询
将数据段和嵌入存储在MongoDB中后,您可以使用MongoDB Atlas Vector Search进行语义查询。
3。使用聊天机器人
此解决方案中的聊天机器人由...提供支持MongoDB Atlas Vector Search 和预训练的 LLM 提供支持。当用户输入问题时,系统会对该问题进行向量化,并使用MongoDB Atlas Vector Search 来查找具有相似嵌入的文档。
检索相关文档后,这些数据将被发送到法学硕士。 此演示使用的是来自 Anthropic 的 Claude(包含在Amazon基岩版中)。法学硕士使用检索到的文档作为上下文,生成更全面、更准确的响应。 此进程称为检索增强生成 (RAG)。RAG 通过将语义搜索与语言模型生成相结合,增强了聊天机器人提供准确答案的能力。
图3。Leafy Bank 聊天机器人操作演示
关键要点
聊天机器人可提升用户体验:聊天机器人等AI驱动技术可提供上下文感知的即时响应,从而简化客户交互,使用户能够独立浏览银行业务,而无需浏览复杂的条款和条件。
Atlas Vector Search支持 PDF搜索:通过使用数据分块和Atlas Vector Search, MongoDB可以对密集的法律文档进行高效查询,确保客户获得准确、上下文丰富的答案。
MongoDB支持技术集成:MongoDB 与 Vector Search、LLM 和专用搜索基础架构的集成使金融机构能够扩展AI解决方案,随着客户需求的增长提高性能和响应速度。
作者
MongoDB 欧洲、中东和非洲地区 FSI 负责人 Luis Pazmino Diaz
Ainhoa Múgica,MongoDB行业解决方案高级专家
Pedro Bereilh,行业解决方案专家,MongoDB
Andrea Alaman Calderon,行业解决方案高级专家,MongoDB