Docs Menu
Docs Home
/ /
Atlas Architecture Center
/ / /

AI駆動型インタラクティブバンキング

MongoDB Atlas Vector Search と大規模言語モデルを活用して、バンキング アプリケーションのインタラクティブ性を高めるアプリケーションを構築します。

  • ユースケース: 生成系 AIパーソナライズ

  • 業種別: 金融サービス

  • パートナー: Amazon Bedrock

インタラクティブ バンキングは、金融サービスの新たな時代を象徴しています。ここでは、顧客がデジタル プラットフォームを通じて、ニーズを予測・理解し、リアルタイムで対応する仕組みに関わることができます。

このアプローチでは、チャットボットやバーチャル アシスタントなどの生成系 AI 技術を使用して、基本的な日常の銀行業務を強化します。生成系 AI を活用することで、銀行はセルフサービスのデジタルチャンネルを実現し、同時にカスタマイズされたコンテキスト認識型の対話を通じて顧客体験を向上させることができます。クエリを即座に解決するAI搭載のチャットボットから、カスタマイズされた財務アドバイスを提供する予測分析まで、インタラクティブ バンキングはもはや利便性だけではなく、すべてのユーザーにとってよりスマートで、より魅力的で、より直感的な銀行業務への取り組みを実現する上で重要となっています。

AI 主導アドバイザーをデジタル バンキング体験に統合することで、銀行はシームレスでアプリ内完結型のソリューションを提供し、即時かつ的確な回答を実現できます。これにより、顧客はアプリを離れて膨大な銀行関連書類を探し回ったり、回答を求めてページを移動したり、あるいはカスタマー サービスに電話するという煩わしさから解放されます。その結果、よりスムーズで使いやすいインターフェースが実現し、顧客はセルフサービスの過程でもしっかりとサポートされていると感じられます。従来の扱いにくい情報源をたどる際の不満も軽減されます。すべての体験はデジタル空間内で完結し、利便性と効率性が向上します。

従来の利用規約や条件には、情報が複雑かつ非構造的で、デジタルバンキング環境では容易に扱えないという問題があります。この課題を解決するために、MongoDB とそのパートナーは、次のリファレンス アーキテクチャを提案しています。

AI を活用したインタラクティブ バンキング提案のためのリファレンス アーキテクチャです。

図 1。AI 主導のインタラクティブ バンキング アーキテクチャ

MongoDB は、AI テクノロジーとアプリケーション層の間の中間層として機能する運用データストア(ODS)として位置付けられており、組織はより統一されたデータセットを使用して運用できるようになります。この統合によりデータ管理が合理化され、構造化データ、半構造化データ、非構造化データの共存が可能になり、開発サイクルが高速化され、AI 主導のインサイトがより正確になります。データサイロを解消することで、企業はデジタルプラットフォーム全体でより豊かで一貫性のある顧客体験を提供できます。

PDF からのテキストチャンクとその埋め込みの両方を MongoDB コレクションの同じドキュメント内に直接保存します。下の図に示されているこの合理化されたアプローチにより、効率的で統一されたデータアクセスが可能になります。

MongoDB の柔軟かつスケーラブルなドキュメント モデルを活用することで、テキストとベクトル埋め込みを一元的に格納でき、クエリを簡素化しながら、追加のソリューションに依存せず高いパフォーマンスを確保できます。このアプローチにより、企業は MongoDB のモダンでマルチクラウド対応のデータベース プラットフォーム上に、AI を活用したアプリケーションを構築できます。リアルタイム、非構造化、かつ AI 主導のデータを統合することが可能です。この基盤を活用することで、企業は新たなテクノロジー機会を捉えるために、アプリケーションを効率的に適応・拡張・反復できます。

MongoDB におけるチャンクおよび埋め込み構造のビュー
1

初期ステップでは、テキストベースの非構造化データ(たとえば、利用規約 PDF など)を処理・変換し、顧客からの問い合わせに対する回答の情報源として機能させます。

ドキュメントはN 個のチャンクに分割され、MongoDB Atlas に格納されます。カスタム スクリプトがドキュメントをスキャンし、チャンクを作成してベクトル化します(下図に示すとおり)。チャンク処理にはスライディング ウィンドウ技術が用いられており、チャンク間のデータの連続性と文脈を維持しながら、遷移データを確実に保持します。

文書がベクトル化されたドキュメントチャンクに変換されると、それらは埋め込みモデルに渡されてベクトル埋め込みが生成されます。埋め込みモデルは、ユーザーの要件に応じて選択できます。説明のために、埋め込みの作成には AWS Bedrock 上の Cohere 'cohere.embed-english-v 3 ' を使用しています。

チャンクと、それに対応するベクトルは、いずれも MongoDB Atlas に格納されます。このサンプル シナリオでは、SuperDuper(AI モデルとワークフローを MongoDB と直接統合する、オープンソースの Python フレームワーク)を使用しています。SuperDuper はプロセス オーケストレーターとして機能し、柔軟かつスケーラブルなエンタープライズ向けカスタム AI ソリューションの構築を可能にします。

2

チャンクとその埋め込みを MongoDB に格納した後、MongoDB Atlas Vector Searchを活用してセマンティック クエリを実行できるようになります。

3

次のステップでは、インタラクティブなチャットボット アプリケーションの構築に進みます。このチャットボットは、MongoDB Atlas Vector Search と事前学習済みのLLM によって動作しています。ユーザーが質問を入力すると、その質問はまずベクトル化され、MongoDB Atlas Vector Search によって類似の埋め込みを持つドキュメントが検索されます。

関連ドキュメントが検索されると、次のステップはそのデータを LLM に送信することです。この場合は、Amazon Bedrock を LLMコンテナとして使用します。この特定のユースケースでは、Anthropic の Claude を利用しています。LLM は、質問と検索済みのドキュメントの両方を受け取り、それらをコンテキストとして用いることで、より包括的かつ正確な回答を生成します。このフレームワークは検索拡張生成RAG)アーキテクチャとして知られています。RAG により、チャットボットはセマンティック検索と高性能な言語モデルによる生成を組み合わせ、正確な回答を提供できるようになります。

Leafy Bank のモックアップ チャットボットの実行例

図 2。Leafy Bank チャットボットの実行例

  • AI 主導のチャットボットなどのテクノロジーは、即時かつコンテキストに即した応答を提供することで、顧客とのやり取りを簡素化し、ユーザーが銀行業務を自力でスムーズに進められるようにします。複雑な利用規約などに煩わされることはありません。

  • Atlas Vector Searchおよびドキュメントのチャンク処理を活用することで、MongoDB は複雑な法的文書の効率的な検索を可能にし、顧客に対して正確かつ文脈に即した回答を提供します。

  • MongoDB は、ベクトル検索、LLM、専用の検索インフラとの統合により、金融機関が AI ソリューションをスケーラブルに展開し、顧客ニーズの高まりに応じた性能と応答性を実現できるよう支援します。

  • Luis Pazmino Diaz、MongoDB EMEA FSI プリンシパル

  • Ainhoa Múgica、シニア スペシャリスト、業界ソリューションズ、MongoDB

  • Pedro Bereilh、スペシャリスト、業界ソリューション、MongoDB

  • Andrea Alaman Calderon、シニア スペシャリスト、業界ソリューション、MongoDB

戻る

エージェント AI を活用した投資ポートフォリオ

項目一覧