Aproveite o aprendizado de máquina com processamento de dados em tempo real e automatize a subscrição digital.
Setores: Seguros, Serviços financeiros, Assistência à saúde
Produtos e ferramentas: Séries temporais, Atlas Charts, Spark Connector
Parceiros: Databhards
Visão Geral da Solução
Imagine poder oferecer prêmios personalizados baseados em uso que levassem em consideração os hábitos e comportamentos de direção dos clientes. Para isso, você precisaria coletar dados de veículos conectados, enviá-los para uma plataforma de aprendizado de máquina para análise e usar os resultados para criar um prêmio personalizado. Você também poderia visualizar os dados para identificar tendências e obter insights. Com essa abordagem exclusiva e personalizada, seus clientes teriam mais controle dos custos de seus seguros e você poderia oferecer preços mais precisos e justos.
No repositório do GitHub, você encontra instruções detalhadas passo a passo sobre como criar o pipeline de transformação e upload de dados usando os recursos da plataforma MongoDB Atlas, bem como gerar, enviar e processar eventos de e para o Databricks.
Ao final desta demonstração, você terá criado uma visualização de dados com Atlas Charts que acompanha as alterações dos prêmios de seguro automatizados quase em tempo real.
Outras indústrias e casos de uso aplicáveis
Serviços financeiros: bancos e instituições financeiras devem ser capazes de interpretar transações financeiras com registro de data e hora para fins de trading, detecção de fraudes e mais.
Varejo: insights sobre o que está acontecendo em tempo real.
Assistência à saúde: dos meios de transporte até as embalagens propriamente ditas, os sensores de IoT podem otimizar a cadeia de suprimentos em trânsito e no local.
Arquiteturas de referência
Figura 1. Arquitetura de referência com MongoDB
Abordagem do modelo de dados
Um exemplo básico de modelo de dados para dar suporte a esse caso de uso incluiria os clientes, as viagens que eles fazem, as apólices que compram e os veículos segurados por essas apólices.
Este exemplo constrói três coleções do MongoDB, bem como duas visualizações materializadas. O modelo de dados completo do Hackloade que define todos os objetos do MongoDB neste exemplo está disponível no GitHub.

Figura 2. Abordagem do modelo de dados do MongoDB
Construindo a Solução
Um conjunto de dados incluindo a distância total percorrida em viagens de carro é carregado no MongoDB e uma tarefa cron diária é executada todos os dias à meia-noite resumindo as viagens diárias e compilando-as em um documento armazenado em uma nova coleção chamada “CustomerTripDaily”. Uma tarefa cron mensal é executada no 25º dia de cada mês, agregando os documentos diários e criando uma nova coleção chamada “Customer Trip Monthly”. Cada vez que um novo resumo mensal é criado, uma função do Atlas publica a distância total do mês e o prêmio básico no Databricks para previsão do ML. A previsão do ML é então enviada de volta ao MongoDB e adicionada ao documento “Customer Trip Monthly”. Na etapa final, você pode visualizar todos os seus dados no MongoDB Charts.
Criar um pipeline de processamento de dados com uma visualização materializada
O componente do pipeline de processamento de dados deste exemplo consiste em dados de amostra, visualização materializada diária e visualização materializada mensal. Um conjunto de dados de amostra de telemetria de veículos IoT representa as viagens feitas pelos clientes com veículos motorizados. Ele é carregado na coleção chamada 'customerTripRaw' (1). O conjunto de dados pode ser encontrado no GitHub e pode ser carregado via MongoImport ou outros métodos. Para criar uma visualização materializada, um trigger agendado executa uma função que executa um pipeline de agregação. Isso, então, gera um resumo diário dos dados brutos da IoT e os coloca em uma coleção de visualização materializada chamada 'customerTripDaily' (2). Da mesma forma, para uma visualização materializada mensal, um trigger agendado executa uma função que executa um pipeline de agregação que resume as informações na coleção 'customerTripDaily' mensalmente e as coloca em uma coleção de visualização materializada chamada 'customerTripMonthly' (3).
Consulte os seguintes repositórios do Github para criar o pipeline de processamento de dados:
Passo 1: Carregue os dados de amostra.
Passo 2: Configurar uma tarefa cron diária.
Passo 3: Configurar uma tarefa cron mensal.
Figura 3. Criar um pipeline de processamento de dados
Automatizando os cálculos de prêmios de seguro com um modelo de aprendizado de máquina
O componente de processamento de decisão deste exemplo consiste em um trigger agendado que coleta os dados necessários e publica o payload em um ponto de extremidade da API Databricks ML Flow. (O modelo foi previamente treinado usando o MongoDB Spark Connector no Databricks.) Em seguida, ele espera o modelo responder com um prêmio calculado com base nas milhas percorridas por um determinado cliente em um mês. O trigger agendado atualiza a coleção 'customerPolicy' para anexar um novo cálculo de prêmio mensal como um novo subdocumento na array 'monthlyPremium'.
Consulte os seguintes repositórios do Github para criar o pipeline de processamento de dados:
Figura 4. Automatizar cálculos com modelo de aprendizado de máquina
Informações quase em tempo real sobre mudanças nos prêmios de seguro ao longo do tempo
Depois que os cálculos dos prêmios mensais são anexados, é fácil configurar o Atlas Charts para visualizar os prêmios recém-calculados com base no uso. Configure diferentes gráficos para ver como os prêmios mudam ao longo do tempo e descobrir padrões.
Tecnologias e produtos utilizados
Plataforma de dados para desenvolvedores MongoDB
Tecnologias de parceiros
Considerações importantes
Como construir visualizações materializadas em dados de série temporal: consulte as etapas 1 a 3 no repositório do GitHub.
Aproveite os pipelines de agregação para expressões cron : consulte as etapas 2 ou 3 no repositório do Github.
Como alimentar modelos de aprendizado de máquina com dados do MongoDB Atlas: consulte a etapa 4 no repositório do GitHub.
Escrevendo uma predição de modelo de machine learning em um banco de dados do Atlas: consulte a etapa no repositório do Github.
Como visualizar informações quase em tempo real para resultados de modelos que mudam constantemente: consulte a etapa bônus no repositório do GitHub.
Autor(a)
Jeff Needham, MongoDB
Ainhoa Múgica, MongoDB
Luca Napoli, MongoDB
Karolina Ruiz Rogelj, MongoDB