BLOGAtlas Stream Processing è ora disponibile in Public Preview! Ulteriori Informazioni

ATLAS (ANTEPRIMA)

Atlas Stream Processing. Unifica i dati in transito e a riposo.

Trasformare la costruzione di applicazioni event-driven elaborando continuamente flussi di dati con un'esperienza di sviluppo familiare.
Guarda il tutorial
Immagine Atlas Stream Processing
Atlas Stream Processing Spiegato in 3 minuti
Scoprite come Atlas Stream Processing combina document model, schemi flessibili e aggregation framework per potenziare e semplificare la creazione di applicazioni che richiedono l'elaborazione di dati su eventi complessi e su vasta scala.Guarda il video
Illustrazione di una pipeline che rappresenta Atlas Stream Processing.

Stream processing come mai prima d'ora

Quando si lavora con i dati in streaming, la gestione dello schema è fondamentale per la correttezza dei dati e la produttività degli sviluppatori. Il document model e l'aggregation framework di MongoDB offrono agli sviluppatori strumenti potenti e grande guadagno in termini di produttività .
Illustrazione di forme e grafici di dati che entrano in una scatola verde.

Unificare i dati in transito e i dati a riposo

Per la prima volta, gli sviluppatori possono utilizzare un'unica piattaforma - tra API, linguaggio di query e modello di dati - per elaborare continuamente i dati in streaming insieme ai dati critici dell'applicazione memorizzati nel database.
Illustrazione di un database, di un'interfaccia e di un bucket di dati.

completamente gestito in Atlas

Atlas Stream Processing si basa sulla nostra developer data platform. Con poche call API e righe di codice, uno sviluppatore può creare uno stream processor, un database e layer di servizio API, il tutto completamente gestito su Atlas.

Atlas Stream Processing

Come si può unificare l'esperienza di lavoro con i dati in movimento e con quelli a riposo?
Atlas Stream Processing diagram

Funzionalità
misc_grow

Elaborazione continua

Costruite aggregation pipeline per interrogare, analizzare e React in modo continuo i dati in streaming senza i ritardi inerenti all'elaborazione batch.

general_features_complexity

Convalida continua

Eseguire la convalida continua dello schema per verificare che gli eventi siano formati correttamente prima dell'elaborazione, rilevare la corruzione dei messaggi e individuare i dati in arrivo in ritardo che hanno perso una finestra di elaborazione.

general_features_build_faster

Fusione continua

Materializzare continuamente le viste nel database Atlas collection o in sistemi di streaming come Apache Kafka per mantenere nuove viste analitiche dei dati a supporto del processo decisionale e dell'azione.

UN FLUSSO CONTINUO DI INFORMAZIONI STRATEGICHE
“In Acoustic, il nostro obiettivo principale è fornire ai marchi informazioni comportamentali che consentano loro di creare esperienze cliente coinvolgenti e personalizzate. Con Atlas Stream Processing, i nostri ingegneri possono sfruttare le competenze che hanno già maturato lavorando con i dati in Atlas per elaborare continuamente nuovi dati, garantendo ai nostri clienti l'accesso a informazioni dettagliate sui consumatori in tempo reale”.
John Riewerts
EVP of Engineering, Acoustic
Mani che digitano su un computer portatile.
Applicazioni basate su eventi
Preparare il terreno per un business reattivo e in tempo realeScarica il white paper

Provate la semplicità e la potenza di Atlas Stream Processing

Utilizzate Atlas flusso Processing per elaborare e convalidare facilmente i dati di eventi complessi, unendoli per utilizzarli esattamente dove vi servono.
Visualizza documentazione
Eseguire query su flussi di dati Apache Kafka
Atlas Stream Processing rende l'esecuzione di query sui dati provenienti da Apache Kafka semplice quanto quella su MongoDB. Basta definire una fonte, gli stage di aggregazione e un sink per elaborare rapidamente i flussi dei dati Apache Kafka.
Analytics avanzate con funzioni di windowing
Gli operatori Windows in Atlas Stream Processing consentono di analizzare ed elaborare finestre di dati specifiche e di dimensioni fisse all'interno di un flusso di dati continuo, semplificando l'individuazione di modelli e tendenze.
Convalida dello schema di eventi complessi
Una validation continua è essenziale prima dell'elaborazione, per rilevare l'eventuale corruzione dei messaggi e se i dati in arrivo in ritardo hanno perso una finestra di elaborazione.
Eseguire query su flussi di dati Apache Kafka
Atlas Stream Processing rende l'esecuzione di query sui dati provenienti da Apache Kafka semplice quanto quella su MongoDB. Basta definire una fonte, gli stage di aggregazione e un sink per elaborare rapidamente i flussi dei dati Apache Kafka.
MongoDB Query API
Analytics avanzate con funzioni di windowing
Gli operatori Windows in Atlas Stream Processing consentono di analizzare ed elaborare finestre di dati specifiche e di dimensioni fisse all'interno di un flusso di dati continuo, semplificando l'individuazione di modelli e tendenze.
MongoDB Query API
Convalida dello schema di eventi complessi
Una validation continua è essenziale prima dell'elaborazione, per rilevare l'eventuale corruzione dei messaggi e se i dati in arrivo in ritardo hanno perso una finestra di elaborazione.
MongoDB Query API
MongoDB Query API

Ottieni il massimo da Atlas

Ottieni più esperienze e informazioni approfondite basate sui dati con le funzionalità aggiuntive della nostra piattaforma di dati applicativi.
atlas_database

Database

Inizia con il servizio di database multi-cloud creato per soddisfare le esigenze di resilienza e scalabilità e i massimi livelli di privacy e sicurezza dei dati.

atlas_triggers

Trigger

Eseguite automaticamente codice in risposta a modifiche del database, eventi utente o intervalli preimpostati.

connectors_kafka

Connettore Kafka

Integrate in modo nativo i dati MongoDB all'interno dell'ecosistema Kafka.


Domande Frequenti

Volete saperne di più sulla lavorazione del flusso?
Visualizza altre risorse
Che cos'è lo streaming dei dati?
I dati in streaming vengono generati continuamente da un'ampia gamma di fonti. Tra quelle che più comunemente ne generano un elevato volume possiamo citare sensori IoT, microservices e dispositivi mobili. La natura continua dei dati in streaming e la loro immutabilità li rendono unici rispetto ai dati statici a riposo in un database.
Che cos'è l'elaborazione del flusso?
L'elaborazione dei flussi consiste nell'ingerire e trasformare continuamente i dati degli eventi da una piattaforma di messaggistica di eventi (come Apache Kafka) per eseguire varie funzioni. Questo potrebbe MEAN creare semplici filtri per rimuovere i dati non necessari, eseguire aggregazioni per contare o sommare i dati secondo le necessità, creare Windows stateful e altro ancora. L'elaborazione del flusso può essere una caratteristica differenziante nelle applicazioni event-driven, consentendo un'esperienza del cliente più reattiva e reattiva.
In che modo lo streaming di eventi è diverso dall'elaborazione dei flussi?

I dati in streaming risiedono all'interno di piattaforme di event streaming (come Apache Kafka), in sistemi che fondamentalmente sono un log distribuito immutabile. I dati degli eventi vengono pubblicati e consumati da piattaforme di streaming di eventi tramite API.

Per eseguire elaborazioni più avanzate, come aggregazioni stateful, operazioni su finestre, mutazioni e creazione di viste materializzate, gli sviluppatori devono utilizzare uno stream processor. Le operazioni sono simili a quelle che si svolgono quando si eseguono delle query su un database, con la differenza che l'elaborazione dei flussi interroga continuamente un flusso infinito di dati. È un ambito dello streaming ancora agli albori, anche se tecnologie come Apache Flink e Spark Streaming stanno rapidamente prendendo piede.

Con Atlas Stream Processing, MongoDB offre agli sviluppatori una soluzione migliore per elaborare i flussi da utilizzare nelle proprie applicazioni, basata sull'utilizzo dell'aggregation framework.

Perché MongoDB ha costruito Atlas flusso Processing?
Lo stream processing è un componente sempre più critico per la realizzazione di applicazioni reattive e guidate dagli eventi. Aggiungendolo come funzionalità nativa in Atlas, stiamo aiutando un maggior numero di sviluppatori a creare applicazioni innovative sfruttando la nostra piattaforma di dati multi-cloud per sviluppatori, MongoDB Atlas.
Cosa devo fare per iniziare a usare l'anteprima pubblica di Atlas Stream Processing?
Atlas Stream Processing è ora disponibile per tutti gli utenti Atlas. Per iniziare a usarla, è sufficiente accedere e fare clic sulla scheda Stream Processing.
Qual è la differenza tra l'elaborazione in flussi e l'elaborazione in batch?

Lo stream processing avviene in modo continuo. Nell'ambito della creazione di applicazioni basate su eventi, consente esperienze reattive e accattivanti come notifiche in tempo reale, personalizzazione, pianificazione del percorso o manutenzione predittiva.

L'elaborazione in batch non funziona su dati prodotti in modo continuo. Al contrario, raccoglie i dati relativi a un periodo di tempo specifico ed elabora i dati statici in base alle esigenze. Un esempio di elaborazione in batch è quello di un'azienda di vendita al dettaglio che raccoglie i dati sulle vendite alla chiusura dell'attività ogni giorno per creare report e/o aggiornare i livelli di inventario.

Inizia subito su Atlas

Atlas Stream Processing è ora disponibile in Public Preview.
Accedi
Illustrazione di una pipeline che rappresenta Atlas Stream Processing.