Un servizio Atlas completamente gestito con flessibilità del modello di documento.
Utilizza l'API Query e il framework di aggregazione, un'interfaccia familiare ed estremamente efficace, per gestire l'elaborazione dello stream processing.
Disponibile in 11 regioni AWS negli Stati Uniti, in Europa e in APAC, con altri provider e regioni in arrivo.
Crea finestre basate sul tempo e altre operazioni per un'elaborazione complessa e multievento.
Connettiti facilmente alle tue principali sorgenti/sink di streaming in Kafka e Atlas e unisci i dati costantemente.
Supporto integrato per la convalida, per garantire la correttezza dei dati e la gestione intuitiva degli errori. Usa le raccolte Atlas come coda di lettere morte (DLQ).
In caso di guasto, i checkpoint riavviano automaticamente gli elaboratori di flusso, evitando una rielaborazione dei dati non necessaria.
L'elaborazione dei dati in streaming può essere difficile. Usa .process() per esplorare in modo iterativo mentre sviluppi.
Inizia con il servizio di database multi-cloud creato per soddisfare le esigenze di resilienza e scalabilità e i massimi livelli di privacy e sicurezza dei dati.
Eseguite automaticamente codice in risposta a modifiche del database, eventi utente o intervalli preimpostati.
Integrate in modo nativo i dati MongoDB all'interno dell'ecosistema Kafka.
I dati in streaming risiedono all'interno di piattaforme di event streaming (come Apache Kafka), in sistemi che fondamentalmente sono un log distribuito immutabile. I dati degli eventi vengono pubblicati e consumati da piattaforme di streaming di eventi tramite API.
Per eseguire elaborazioni più avanzate, come aggregazioni stateful, operazioni su finestre, mutazioni e creazione di viste materializzate, gli sviluppatori devono utilizzare uno stream processor. Le operazioni sono simili a quelle che si svolgono quando si eseguono delle query su un database, con la differenza che l'elaborazione dei flussi interroga continuamente un flusso infinito di dati. È un ambito dello streaming ancora agli albori, anche se tecnologie come Apache Flink e Spark Streaming stanno rapidamente prendendo piede.
Con Atlas Stream Processing, MongoDB offre agli sviluppatori una soluzione migliore per elaborare i flussi da utilizzare nelle proprie applicazioni, basata sull'utilizzo dell'aggregation framework.
Lo stream processing avviene in modo continuo. Nell'ambito della creazione di applicazioni basate su eventi, consente esperienze reattive e accattivanti come notifiche in tempo reale, personalizzazione, pianificazione del percorso o manutenzione predittiva.
L'elaborazione in batch non funziona su dati prodotti in modo continuo. Al contrario, raccoglie i dati relativi a un periodo di tempo specifico ed elabora i dati statici in base alle esigenze. Un esempio di elaborazione in batch è quello di un'azienda di vendita al dettaglio che raccoglie i dati sulle vendite alla chiusura dell'attività ogni giorno per creare report e/o aggiornare i livelli di inventario.