BlogMongoDB Atlas Stream Processing prend désormais en charge Microsoft Azure ! En savoir plus >>

ATLAS

Atlas Stream Processing

Simplifiez l’intégration de MongoDB avec Apache Kafka pour créer des applications pilotées par événements.

Lancez-vous maintenant
Illustration de vecteurs entrant et sortant d’un tuyau

Un modèle de données conçu pour les données de flux

La gestion des schémas est essentielle à l’exactitude des données et à la productivité des développeurs lorsqu’on travaille avec des données de flux. Le document model offre aux développeurs un modèle de données flexible et naturel pour développer des applications avec des données en temps réel.

Un modèle de données conçu pour l’illustration des données de flux.
Illustration de l’expérience développeur unifiée

Une expérience de développeur unifiée

Les développeurs peuvent utiliser une plateforme unique (API, langage de requête et modèle de données) pour traiter en continu les données de flux d’Apache Kafka parallèlement aux données d’application critiques stockées dans leurs bases de données.

Entièrement géré dans l'Atlas

En quelques lignes de code, les développeurs peuvent rapidement intégrer les données de flux d’Apache Kafka à leur base de données pour créer des applications réactives et dynamiques, toutes entièrement gérées par Atlas.

Illustration Entièrement géré dans Atlas

Traitement natif des flux dans MongoDB Atlas

Utilisez Atlas Stream Processing pour traiter et valider facilement des données d’événements complexes, en les fusionnant exactement là où vous en avez besoin.

Intégrer avec les flux de données Apache Kafka

Atlas Stream Processing permet d’interroger des données depuis Apache Kafka aussi facilement que d’interroger une base de données MongoDB. Un processeur de flux est constitué d’une étape source, d’un certain nombre d’étapes de traitement et d’une étape de réception.

Lire la documentation
API de requête MongoDB
Lire la documentation

Effectuez des analyses continues à l’aide des fonctions de fenêtrage

Les opérateurs de fenêtre dans Atlas Stream Processing vous permettent d’analyser et de traiter des fenêtres de données spécifiques et de taille fixe au sein d’un flux de données continu, ce qui facilite la découverte de modèles et de tendances en temps quasi réel.

Lire la documentation
API de requête MongoDB

Valider le schéma des événements complexes

Dans Atlas Stream Processing, les développeurs peuvent effectuer une validation continue. La détection d’une éventuelle corruption des messages et des données arrivées tardivement garantit que les événements sont correctement mis en forme avant d’être traités.

Lire la documentation
API de requête MongoDB

Succès client Atlas Stream Processing

Voir tous les clients
INFORMATIONS CONTINUES
« Chez Acoustic, notre objectif principal est de fournir aux marques des informations comportementales qui leur permettent de créer des expériences client attrayantes et personnalisées. Avec Atlas Stream Processing, nos ingénieurs peuvent tirer parti des compétences déjà acquises en travaillant avec des données dans Atlas pour traiter de nouvelles données en continu, garantissant ainsi à nos clients un accès à des informations client en temps réel. »
John Riewerts
Vice-président exécutif de l'ingénierie chez Acoustic
En Savoir Plus
INFORMATIONS CONTINUES
« Chez Acoustic, notre objectif principal est de fournir aux marques des informations comportementales qui leur permettent de créer des expériences client attrayantes et personnalisées. Avec Atlas Stream Processing, nos ingénieurs peuvent tirer parti des compétences déjà acquises en travaillant avec des données dans Atlas pour traiter de nouvelles données en continu, garantissant ainsi à nos clients un accès à des informations client en temps réel. »
John Riewerts
Vice-président exécutif de l'ingénierie chez Acoustic
En Savoir Plus
APPLICATIONS BASÉES SUR LES ÉVÉNEMENTS
« Atlas Stream Processing nous permet de traiter, de valider et de transformer les données avant de les envoyer à notre architecture de messagerie dans AWS, alimentant les mises à jour basées sur les événements de l’ensemble de notre plateforme. La fiabilité et les performances d’Atlas Stream Processing ont permis d’accroître notre productivité, d’améliorer l’expérience des développeurs et de réduire les coûts d’infrastructure. »
Cody Perry
Ingénieur logiciel, Meltwater
En Savoir Plus

Centre d’apprentissage

Trouvez des livres blancs, des tutoriels et des vidéos sur la manière de traiter des flux de données.

Cas d’utilisation du traitement par flux

Voir tous les cas d'usage

FAQ

Prêt à vous lancer ?

Consultez un tutoriel pour commencer à créer un processeur de flux dès aujourd'hui.
Lancez-vous maintenantInscrivez-vous maintenant
COMMENCEZ DÈS AUJOURD’HUI
  • Intégrez facilement Kafka et MongoDB
  • Traitez les données de manière continue
  • Expérience MongoDB native
  • Disponible dans le monde entier