MongoDB Atlas Vector Search と RAG でカスタマーサービスを変革します。通話録音を検索可能なインサイトに変換し、より迅速で正確な応答を実現します。
ユースケース: 分析、生成AI、モダナイゼーション、パーソナライズ
製品: MongoDB Atlas、 MongoDB Atlas Search、 MongoDB Atlas Vector Search
パートナー: Amazon Web Services、Cohere、LangChain
ソリューション概要
多くの保証会社にとって大きな問題は、エージェントが正確な情報をすばやく見つけて顧客に提供するのが困難なコールセンターが非効率的であることです。ある調査では、カスタマーエクスペリエンスが優れている会社は、他の組織よりもパフォーマンスが優れていることが示されています。インスタンス、満たされたカスタマーはポリシーを更新する可能性が 80% 高く、増加に直接影響します。
このソリューションは、 MongoDB がコールセンターの操作をどのように変換するかを示しています。AIと分析分析を活用して、非構造化オーディオファイルを検索可能なベクトルに変換します。これにより、ビジネスは関連情報にすばやくアクセスし、成功する解決戦略と頻繁に行われる質問を識別して、カスタマーサービス全体のエクスペリエンスを向上させることができます。
図 1 は、未加工のレコードをベクトルに変換する方法を示しています。パイプラインは、次のように動作します。
未加工の可用性ファイルを保存: 過去の呼び出し記録を元の可用性形式で保存します。
言語ファイルの処理: 言語からテキストへの変換、コンテンツの要約、ベクトル化など、 AIや分析サービスを使用します。
ベクトルとメタデータを保存する : 生成されたベクトルとそのメタデータ(呼び出しタイムスタンプやエージェント情報など)を運用データ ストアに保存します。
図 1. カスタマーサービス通話のインサイト抽出とベクトル化の流れ
データが運用データストア内にベクトル形式で保存されると、リアルタイムアプリケーションからアクセスできるようになります。現在、ベクトル検索はこのデータを消費するか、検索拡張生成 (RAG) アーキテクチャに統合できます。このアプローチでは、大規模言語モデル(llm)と外部の知識ソースを組み合わせて、より正確で情報のある出力を生成します。
参照アーキテクチャ
図 2 に示されているシステム アーキテクチャには、次のモジュールと関数が含まれています。
Amazon Transcribe は、カスタマーの電話からの受信を受信し、テキストに変換します。
Cohere はAmazon Web Services が
Atlas ベクトル検索 はクエリベクトルを受け取り、データベース内で最もセマンティックに類似したFAQを含むドキュメントを返します。
図 2。システム アーキテクチャおよびモジュール
完全な実装の詳細については、Githubリポジトリを参照してください。
キーポイント
AIサービスでコールセンターを変換する: 言語変換、ベクトル埋め込み、ベクトル検索などのAIサービスをMongoDB Atlasと統合し、従来のコールセンターをアクション可能な音声データで変換します。
RG ベースのアーキテクチャと統合: RG アーキテクチャとベクトル検索を組み合わせて、エージェントの応答、チャットボット、自動ワークフローを生成します。
リアルタイムエージェント支援の実装:エージェントサポートを統合して、カスタマー満足度の向上、整合性の強化、財務パフォーマンスの向上などのビジネス 結果を実現します。
このソリューションは、エージェント的ワークフローや、TLM やハイブリッド検索を使用した複数ステップのプロセスなど、複雑なインタラクションを必要とする高度なアプリケーションの基盤として機能します。また、チャットボットと音声ボットの機能が強化され、より関連性が高くパーソナライズされた応答を顧客に提供できるようになります。 。
作成者
Luca Napoly、 MongoDB
Sebastian Rojas Arbulu, MongoDB