Docs Menu
Docs Home
/

RAM と RAG 用のベクトル検索を使用したクレーム管理

MongoDB Atlas Vector Searchと大規模言語モデル(llm)を組み合わせて、クレーム調整プロセスを効率化する方法を学びます。

ユースケース: 生成系 AIコンテンツ管理

業種: 保険金融製造・モビリティ小売

製品: MongoDB AtlasMongoDB Atlas Vector Search

パートナー: LangChainFastAPI

クレーム エラーの 1 つは、さまざまなシステムとデータ形式からの情報を集計することです。数年にわたって、保証会社はデータストアにテラバイトの非構造化データを蓄積しています。これにより、ビジネス インサイトの抽出、カスタマーエクスペリエンスの向上、操作の効率化に役立ちます。しかし、多くの会社ではこれを活用できません。

組織がこれらの問題を解決するには、 MongoDBを使用して、検索拡張生成(RAG)システムで Atlas ベクトル検索と LM を組み合わせた要求管理ソリューションを構築できます。このフレームワークは、組織が基本的な基礎モデルの制限をGo、独自のデータを使用して、AI の完全な可能性を備えたコンテキストを認識する操作を効率化するのに役立ちます。

MongoDB、ドキュメントをベクトル埋め込みと関連するメタデータとともに保存することで、統合開発エクスペリエンスを提供し、データを取得する必要がなくなります。これにより、ユーザーは別のテクノロジーを維持するのではなく、アプリケーションの構築に集中できます。最終的に、 MongoDB ベクトル検索から取得されたデータは、コンテキストとして LM に入力されます。

RG クエリ フローのプロセスは次のとおりです。

  1. ユーザーは 自然言語でプロンプトを書き込みます。

  2. 投票 AI の 埋め込みモデルはプロンプトをベクトル化します。

  3. Atlas ベクトル検索 はベクトル化されたプロンプトを使用して関連するドキュメントを検索します。

  4. LM はコンテキストと元の質問の両方を使用して応答を生成します。

  5. ユーザーは応答を受け取ります。

RAG クエリフロー

図1。RAG クエリフロー

デモ ソリューションでは、データモデルは、実際の保証請求データをエミュレートする簡素化された設計です。このアプローチでは、MongoDB の柔軟なドキュメントモデルを活用して、関連するドキュメントとともに埋め込みを保存するさまざまなデータ構造を処理します。

claims_finalコレクションにはクレーム情報が保存されています。関連するフィールドは claimDescriptionフィールドとそれに対応する埋め込み claimDescriptionEmbedding です。この埋め込みはインデックス化され、ユーザープロンプトに関連するドキュメントを検索するために使用されます。このコレクションのドキュメントは次のとおりです。

{
"_id": {
"$oid": "65cc809c76da22d0089dfb2e"
},
"customerID": "c105",
"policyNumber": "p105",
"claimID": "cl105",
"claimStatusCode": "Subrogation",
"claimDescription": "High winds caused ...",
"totalLossAmount": 4200,
"claimFNOLDate": "2023-10-27",
"claimClosedDate": "2024-09-01",
"claimLineCode": "Auto",
"damageDescription": "Roof caved in ...",
"insurableObject": {
"insurableObjectId": "abc105",
"vehicleMake": "Make105",
"vehicleModel": "Model105"
},
"coverages": [
{
"coverageCode": "888",
"description": "3rd party responsible"
},
{
"coverageCode": "777",
"description": "Vehicle rental/loaner service for customer"
}
],
"claimDescriptionEmbedding": [-0.017, ..., 0.011],
"damageDescriptionEmbedding": [-0.047, ..., -0.043],
"photo": "105.jpg",
"photoEmbedding": [9.629, ..., 14.075]
}

README詳細な設定手順については、このGithubリポジトリ の に従ってください。この手順では、次の手順についてガイド。

1

MongoDB Atlasに demo_rag_insurance という新しいデータベースを作成し、提供されたデータセット demo_rag_insurance_claims.json を使用して claims_final というコレクションを作成します。

2

と呼ばれる 用の AtlasclaimDescriptionEmbeddingCohere vector_index_claim_description_cohereベクトル検索インデックスを作成して構成します。検索インデックスは、次のように構成する必要があります。

{
"fields": [
{
"type": "vector",
"path": "claimDescriptionEmbeddingCohere",
"numDimensions": 350,
"similarity": "cosine"
}
]
}
3

Atlas を使用して仮想環境を設定します。

4

バックエンドサーバーを起動します。

5

環境変数を構成し、フロントエンドを実行します。

前のエンドポイントとバックエンドの両方を実行する必要があります。Web UIにアクセスすると、LM に質問をして、回答を得て、コンテキストとして使用される参照ドキュメントを確認できます。

MongoDB のセマンティック検索ツールを今すぐ試すには、Atlas ベクトル検索クイック スタートガイドをご覧ください。

  • テキスト埋め込みの生成: さまざまなモデルと配置オプションを使用して埋め込みを作成できます。プライバシーとデータ保護の要件を考慮することが重要です。データをサーバー上に保持する必要がある場合は、モデルをローカルに配置できます。それ以外の場合は、このチュートリアルで説明されているように、 APIを呼び出してベクトル埋め込みを元に戻すことができます。投票AIまたはオープンソース モデルを使用できます。

  • ベクトル検索インデックスの作成: MongoDB Atlasではベクトル検索インデックスをビルドできます。あるいは、ローカル配置用のインデックスをビルドすることもできます。

  • ベクトル検索クエリの実行: MongoDB の集計パイプラインを使用してベクトル検索クエリを実行でき、ワークフロー内で複数の操作を連結できます。このアプローチにより、別のプログラミング言語を学習したりコンテキストを変更したりする必要がなくなります。

  • 高速 RAG 実装の開発: MongoDB Atlas Vector Searchと LM を組み合わせた Lgacheinフレームワークを使用して、高速 RAG実装を開発できます。

  • Luca Napoli、業界ソリューション、MongoDB

  • Jeff Needham、業界ソリューション、MongoDB

戻る

PDF 検索アプリケーションの構築

項目一覧