BLOGAtlas Stream Processing ora supporta ulteriori regioni AWS, peering VPC e altro ancora! Scopri di più >

ATLAS

Atlas Stream Processing. Unifica i dati in transito e inattivi.

Trasformare la costruzione di applicazioni event-driven elaborando continuamente flussi di dati con un'esperienza di sviluppo familiare.
Guarda il tutorial
Immagine Atlas Stream Processing
Atlas Stream Processing Spiegato in 3 minuti
Scoprite come Atlas Stream Processing combina document model, schemi flessibili e aggregation framework per potenziare e semplificare la creazione di applicazioni che richiedono l'elaborazione di dati su eventi complessi e su vasta scala.Guarda il video
Illustrazione di una pipeline che rappresenta Atlas Stream Processing.

Stream processing come mai prima d'ora

Quando si lavora con i dati in streaming, la gestione dello schema è fondamentale per la correttezza dei dati e la produttività degli sviluppatori. Il document model e l'aggregation framework di MongoDB offrono agli sviluppatori strumenti potenti e grande guadagno in termini di produttività .
Illustrazione di forme e grafici di dati che entrano in una scatola verde.

Elabora e gestisci tutti i tuoi dati su un'unica piattaforma

Per la prima volta, gli sviluppatori possono utilizzare un'unica piattaforma, tra API, linguaggio di query e modello di dati, per elaborare costantemente i dati in streaming insieme ai dati critici dell'applicazione memorizzati nel database.
Illustrazione di un database, di un'interfaccia e di un bucket di dati.

completamente gestito in Atlas

Atlas Stream Processing si basa sulla nostra developer data platform. Con poche call API e righe di codice, uno sviluppatore può creare uno stream processor, un database e layer di servizio API, il tutto completamente gestito su Atlas.

Atlas Stream Processing

Come si può unificare l'esperienza di lavoro con i dati in movimento e con quelli a riposo?
Diagramma di Atlas Stream Processing

Funzionalità
atlas_dataapi

Integrato in Atlas

Un servizio Atlas completamente gestito con flessibilità del modello di documento.

atlas_query_api

Basato sulla Query API

Utilizza l'API Query e il framework di aggregazione, un'interfaccia familiare ed estremamente efficace, per gestire l'elaborazione dello stream processing.

atlas_global_deployments

Disponibile a livello globale

Disponibile in 11 regioni AWS negli Stati Uniti, in Europa e in APAC, con altri provider e regioni in arrivo.

general_features_build_faster

Stateful processing

Crea finestre basate sul tempo e altre operazioni per un'elaborazione complessa e multievento.

connectors_kafka_connector

Supporta Kafka e MongoDB

Connettiti facilmente alle tue principali sorgenti/sink di streaming in Kafka e Atlas e unisci i dati costantemente.

atlas_keyword_highlighting

Convalida in modo costante

Supporto integrato per la convalida, per garantire la correttezza dei dati e la gestione intuitiva degli errori. Usa le raccolte Atlas come coda di lettere morte (DLQ).

general_action_checkmark

Esecuzione di checkpoint

In caso di guasto, i checkpoint riavviano automaticamente gli elaboratori di flusso, evitando una rielaborazione dei dati non necessaria.

atlas_stream_processing

Sviluppa in modo interattivo

L'elaborazione dei dati in streaming può essere difficile. Usa .process() per esplorare in modo iterativo mentre sviluppi.

UN FLUSSO CONTINUO DI INFORMAZIONI STRATEGICHE
"L'obiettivo principale di Acoustic è fornire ai marchi insight comportamentali che consentano loro di creare esperienze cliente coinvolgenti e personalizzate. Con Atlas Stream Processing, i nostri ingegneri possono sfruttare le competenze che hanno già maturato lavorando con i dati in Atlas per elaborare costantemente nuovi dati, garantendo ai clienti l'accesso a insight dettagliati sui consumatori in tempo reale."
John Riewerts
EVP of Engineering, Acoustic
Ulteriori Informazioni
APP BASATE SU EVENTI
"Atlas Stream Processing ci consente di elaborare, convalidare e trasformare i dati prima di inviarli alla nostra architettura di messaggistica in AWS, alimentando aggiornamenti basati sugli eventi in tutta la nostra piattaforma. L'affidabilità e le prestazioni di Atlas Stream Processing hanno aumentato la nostra produttività, migliorato l'esperienza degli sviluppatori e ridotto i costi dell'infrastruttura."
Cody Perry
Ingegnere software, Meltwater
Mani che digitano su un computer portatile.
Applicazioni basate su eventi
Preparare il terreno per un business reattivo e in tempo reale.Scarica il white paper

Stream processing nativo in MongoDB Atlas

Utilizzate Atlas flusso Processing per elaborare e convalidare facilmente i dati di eventi complessi, unendoli per utilizzarli esattamente dove vi servono.
Visualizza documentazione
Eseguire query su flussi di dati Apache Kafka
Atlas Stream Processing rende l'esecuzione di query sui dati provenienti da Apache Kafka semplice quanto quella su MongoDB. Basta definire una fonte, gli stage di aggregazione e un sink per elaborare rapidamente i flussi dei dati Apache Kafka.
Analytics avanzate con funzioni di windowing
Gli operatori Windows in Atlas Stream Processing consentono di analizzare ed elaborare finestre di dati specifiche e di dimensioni fisse all'interno di un flusso di dati continuo, semplificando l'individuazione di modelli e tendenze.
Convalida dello schema di eventi complessi
La convalida continua è essenziale per garantire che gli eventi siano formati correttamente prima dell'elaborazione, per rilevare l'eventuale corruzione dei messaggi e se i dati in arrivo in ritardo hanno perso una finestra di elaborazione.
Eseguire query su flussi di dati Apache Kafka
Atlas Stream Processing rende l'esecuzione di query sui dati provenienti da Apache Kafka semplice quanto quella su MongoDB. Basta definire una fonte, gli stage di aggregazione e un sink per elaborare rapidamente i flussi dei dati Apache Kafka.
MongoDB Query API
Analytics avanzate con funzioni di windowing
Gli operatori Windows in Atlas Stream Processing consentono di analizzare ed elaborare finestre di dati specifiche e di dimensioni fisse all'interno di un flusso di dati continuo, semplificando l'individuazione di modelli e tendenze.
MongoDB Query API
Convalida dello schema di eventi complessi
La convalida continua è essenziale per garantire che gli eventi siano formati correttamente prima dell'elaborazione, per rilevare l'eventuale corruzione dei messaggi e se i dati in arrivo in ritardo hanno perso una finestra di elaborazione.
MongoDB Query API
MongoDB Query API

Ottieni il massimo da Atlas

Ottieni più esperienze e informazioni approfondite basate sui dati con le funzionalità aggiuntive della nostra piattaforma di dati applicativi.
atlas_database

Database

Inizia con il servizio di database multi-cloud creato per soddisfare le esigenze di resilienza e scalabilità e i massimi livelli di privacy e sicurezza dei dati.

atlas_triggers

Trigger

Eseguite automaticamente codice in risposta a modifiche del database, eventi utente o intervalli preimpostati.

connectors_kafka

Connettore Kafka

Integrate in modo nativo i dati MongoDB all'interno dell'ecosistema Kafka.


Domande Frequenti

Volete saperne di più sulla lavorazione del flusso?
Visualizza altre risorse
Che cos'è lo streaming dei dati?
I dati in streaming vengono generati continuamente da un'ampia gamma di fonti. Tra quelle che più comunemente ne generano un elevato volume possiamo citare sensori IoT, microservices e dispositivi mobili. La natura continua dei dati in streaming e la loro immutabilità li rendono unici rispetto ai dati statici a riposo in un database.
Che cos'è l'elaborazione del flusso?
L'elaborazione dei flussi consiste nell'ingerire e trasformare continuamente i dati degli eventi da una piattaforma di messaggistica di eventi (come Apache Kafka) per eseguire varie funzioni. Questo potrebbe MEAN creare semplici filtri per rimuovere i dati non necessari, eseguire aggregazioni per contare o sommare i dati secondo le necessità, creare Windows stateful e altro ancora. L'elaborazione del flusso può essere una caratteristica differenziante nelle applicazioni event-driven, consentendo un'esperienza del cliente più reattiva e reattiva.
In che modo lo streaming di eventi è diverso dall'elaborazione dei flussi?

I dati in streaming risiedono all'interno di piattaforme di event streaming (come Apache Kafka), in sistemi che fondamentalmente sono un log distribuito immutabile. I dati degli eventi vengono pubblicati e consumati da piattaforme di streaming di eventi tramite API.

Per eseguire elaborazioni più avanzate, come aggregazioni stateful, operazioni su finestre, mutazioni e creazione di viste materializzate, gli sviluppatori devono utilizzare uno stream processor. Le operazioni sono simili a quelle che si svolgono quando si eseguono delle query su un database, con la differenza che l'elaborazione dei flussi interroga continuamente un flusso infinito di dati. È un ambito dello streaming ancora agli albori, anche se tecnologie come Apache Flink e Spark Streaming stanno rapidamente prendendo piede.

Con Atlas Stream Processing, MongoDB offre agli sviluppatori una soluzione migliore per elaborare i flussi da utilizzare nelle proprie applicazioni, basata sull'utilizzo dell'aggregation framework.

Perché MongoDB ha costruito Atlas flusso Processing?
Lo stream processing è un componente sempre più critico per la realizzazione di applicazioni reattive e guidate dagli eventi. Aggiungendolo come funzionalità nativa in Atlas, stiamo aiutando un maggior numero di sviluppatori a creare applicazioni innovative sfruttando la nostra piattaforma di dati multi-cloud per sviluppatori, MongoDB Atlas.
Come faccio a iniziare a usare Atlas Stream Processing?
Atlas Stream Processing è ora disponibile per tutti gli utenti Atlas. Per iniziare a usarla, è sufficiente accedere e fare clic sulla scheda Stream Processing.
Qual è la differenza tra l'elaborazione in flussi e l'elaborazione in batch?

Lo stream processing avviene in modo continuo. Nell'ambito della creazione di applicazioni basate su eventi, consente esperienze reattive e accattivanti come notifiche in tempo reale, personalizzazione, pianificazione del percorso o manutenzione predittiva.

L'elaborazione in batch non funziona su dati prodotti in modo continuo. Al contrario, raccoglie i dati relativi a un periodo di tempo specifico ed elabora i dati statici in base alle esigenze. Un esempio di elaborazione in batch è quello di un'azienda di vendita al dettaglio che raccoglie i dati sulle vendite alla chiusura dell'attività ogni giorno per creare report e/o aggiornare i livelli di inventario.

Qual è la differenza tra una pipeline di stream processing e un'aggregation pipeline?
Atlas Stream Processing estende l'aggregation pipeline con fasi per l'elaborazione di flussi di dati continui. Queste fasi si combinano con le fasi di aggregazione già presenti incorporate nel processo mongod predefinito, consentendo di eseguire molte delle stesse operazioni sui dati continui che è possibile eseguire sui dati inattivi.
Ulteriori Informazioni

Vuoi iniziare ora?

Inizia subito
Illustrazione di una pipeline che rappresenta Atlas Stream Processing.