機械学習とリアルタイムデータ処理を活用して、デジタル引受業務を自動化します。
製品およびツール: Time Series、Atlas Charts、Spark Connector
パートナー: Databricks
ソリューション概要
カスタマーの運転習慣や行動を考慮に入れた、パーソナライズされた使用量ベースの保険料をカスタマーに提供できることを想像してみてください。これを行うには、コネクテッドカーからデータを収集し、それを機械学習プラットフォームに送信して分析し、その結果を使用してカスタマーに対してパーソナライズされた保険料を作成する必要があります。また、データを視覚化して傾向を特定し、インサイトを得ることも必要となります。この独自でカスタマイズされたアプローチにより、カスタマーは保険コストをより細かく管理できるようになるため、企業側はより正確で公正な価格設定が可能になります。
GitHub リポジトリ では、 MongoDB Atlasプラットフォームの機能を活用してデータのアップロードと変換パイプラインを構築する方法、および と からイベントを生成、送信、処理する方法について、詳細な手順付きの手順で説明されています。 Databricks。
このデモの最後には、Atlas Charts を使用して、自動化された保険料の変化をほぼリアルタイムで追跡するデータ可視化を作成できるようになります。
その他の該当する業種とユースケース
金融サービス:銀行や金融機関は、トレーディング、詐欺検出などのために、タイムスタンプが付いた金融取引を理解する必要があります。
小売: 現在の状況に関するリアルタイムのインサイト。
医療: 輸送モードからパッケージ自体に至るまで、IoT センサーは輸送中および現場でのサプライチェーンの最適化を可能にします。
参照アーキテクチャ
図 1. MongoDB を使用したリファレンス アーキテクチャ
データモデルアプローチ
このユースケースをサポートする基本的なデータモデル例には、カスタマー、カスタマーが行う移動、購入する保険、およびその保険でカバーされる車両が含まれます。
この例では、3 つのMongoDBコレクションと 2 つのマテリアライズドビューを構築します。この例内のすべてのMongoDBオブジェクトを定義する完全な Hackloadデータモデルは、 Githubに記載されています。

図 2. MongoDB のデータモデルアプローチ
ソリューションを構築する
自動車移動の合計距離を含むデータセットが MongoDB にロードされ、日次の cron ジョブが毎日午前 0 時に実行され、日次の移動を要約し、「CustomerTripDaily」という新しいコレクションに保存されるドキュメントにコンパイルされます。月次の cron ジョブは各月の 25 日に実行され、日次ドキュメントを集計し、「Customer Trip Monthly」と呼ばれる新しいコレクションを作成します。新しい月次サマリーが作成されるたびに、Atlas 関数はその月の合計距離とベースラインプレミアムを機械学習の予測用に Databricks に送信します。その後、機械学習の予測は MongoDB に返され、「Customer Trip Monthly」ドキュメントに追加されます。最後のステップとして、MongoDB Charts を使用してすべてのデータを視覚化できます。
マテリアライズドビューを用いたデータ処理パイプラインの構築
この例のデータ処理パイプライン コンポーネントは、サンプルデータ、日次マテリアライズドビュー、月次マテリアライズドビューで構成されています。IoT 車両テレメトリ データのサンプル データセットは、カスタマーが行った自動車の移動を表しています。これは、「customerTripRaw」(1)という名前のコレクションに読み込まれます。データセットは GitHub から利用可能で、MongoImport または他の方法でロードできます。マテリアライズドビューを作成するには、予定されたトリガーが集計パイプラインを実行する関数を実行します。これにより、未加工の IoT データの日次サマリーが生成され、それが「customerTripDaily」(2)という名前のマテリアライズドビュー コレクションに配置されます。月次のマテリアライズドビューの場合と同様、予定されたトリガーは、集計パイプラインを実行する関数を呼び出し、「customerTripDaily」コレクションの情報を月単位で要約して、「customerTripMonthly」(3)という名前のマテリアライズドビュー コレクションに配置します。
データ処理パイプラインを作成するには、次の Github リポジトリを参照してください。
ステップ 1: サンプル データをロードします。
ステップ 2: 日次の cron ジョブを設定します。
ステップ 3: 毎月の cron ジョブを設定します。
図 3. データ処理パイプラインの作成
機械学習モデルを用いた保険料計算の自動化
この例の決定処理コンポーネントは、必要なデータを収集し、ペイロードを Databricks ML API エンドポイントを送信する予定されたトリガーで構成されています。(モデルは Databricks 上で MongoDB Spark Connector を使用して事前に訓練されています。)次に、特定のカスタマーが 1 か月に走行したマイルに基づいて計算された保険料に対するモデルの応答を待ちます。次に、予定されたトリガーが「customerPolicy」コレクションを更新し、「monthlyPremium」配列内に新しいサブドキュメントとして新しい月次保険料計算を追加します。
データ処理パイプラインを作成するには、次の Github リポジトリを参照してください。
ステップ 4: 保険料計算 trigger をセットアップします。
ステップ5: Databricks 接続をセットアップします。
ステップ6: 機械学習モデルの予測を MongoDB に書き込みます。
図 4. 機械学習モデルを使用した計算の自動化
使用した技術と製品
MongoDB 開発者データ プラットフォーム
提携技術
重要な検討事項
時系列データのマテリアライズドビューの構築 :1 3GitHub リポジトリの手順 - を参照してください。
cron 式の集計パイプラインの活用 :2 3Githubリポジトリのステップ または を参照してください。
MongoDB Atlas データを使用して機械学習モデルを提供するには、GitHub リポジトリ のステップ4を参照してください。
Atlasデータベースに機械学習モデルの予測を書き込む : GitHub リポジトリの ステップを参照してください。
継続的に変化するモデル結果のほぼリアルタイムのインサイトを可視化: Githubリポジトリ の MongoDB Ops ステップ を参照してください。
著者
ジェフ・ニーダム、MongoDB
Ainhoa Múgica, MongoDB
Luca Napoly、 MongoDB
Karolina Ruiz Rogelj, MongoDB