EventAtlas Stream Processing est désormais disponible en aperçu public ! En savoir plus

ATLAS (APERÇU)

Atlas Stream Processing. Unifiez les données en mouvement et au repos.

Transformez la création d'applications event-driven en traitant continuellement des flux de données avec une expérience de développement familière.
Voir le tutoriel
Image d'explication d'Atlas Stream Processing
Atlas Stream Processing expliqué en 3 minutes
Découvrez comment Atlas Stream Processing allie le modèle documentaire, les schémas flexibles et un framework d'agrégation riche pour optimiser la puissance et la convivialité lorsque vous devez créer des applications qui nécessitent de traiter des données d'événement complexes et évolutives.Regarder la vidéo
Illustration d'un pipeline représentant Atlas Stream Processing

Le stream processing d'aujourd'hui

Lorsque l'on travaille avec des données de streaming, la gestion des schémas constitue un élément essentiel afin d'obtenir des données précises et accroître la productivité des développeurs. Le modèle documentaire et le framework d'agrégation de MongoDB offrent aux développeurs de puissantes fonctionnalités et des gains de productivité inégalés.
Illustration de formes et de graphiques de données dans une boîte verte.

Unifier les données en mouvement et les données au repos

Pour la première fois, les développeurs peuvent utiliser une plateforme unique (API, langage de requête et modèle de données) pour traiter en continu des données streaming parallèlement aux données d'application critiques stockées dans leur base de données.
Illustration d'une base de données, d'une interface et d'un dépôt de données

Entièrement géré dans l'Atlas

Atlas Stream Processing s'appuie sur notre developer data platform, une plateforme robuste et intégrée. Quelques appels d'API et lignes de code suffisent à mettre en place un stream processor, une base de données et une couche de service d’API, le tout entièrement géré sur Atlas.

Atlas Stream Processing

Comment cela unifie l'expérience du travail avec des données en mouvement et des données au repos ?
Atlas Stream Processing diagram

Fonctionnalités
misc_grow

Traitement en continu

Créez un pipeline d'agrégation pour requêter, analyser et réagir les données streaming sans les retards inhérents au batch processing.

general_features_complexity

Validation continue

Effectuer une validation continue du schéma pour vérifier que les événements sont correctement formés avant le traitement, détecter les messages corrompus et les données arrivées tardivement qui ont manqué une fenêtre de traitement.

general_features_build_faster

Fusion continue

Matérialiser continuellement les vues dans les collections de la base de données Atlas ou dans des systèmes de streaming comme Apache Kafka pour maintenir des vues analytiques fraîches des données qui soutiennent la prise de décision et l'action.

INFORMATIONS CONTINUES
« Chez Acoustic, nous nous sommes donné pour mission de fournir aux marques des informations comportementales qui leur permettent de créer une expérience client attrayante et personnalisée. Grâce à Atlas Stream Processing, nos ingénieurs peuvent mettre à profit leurs compétences en tirant parti des données dans Atlas afin de traiter de nouvelles données en continu, et ainsi permettre à nos clients d'accéder aux informations sur leurs clients en temps réel. »
John Riewerts
Vice-président exécutif de l'ingénierie chez Acoustic
Mains tapant sur un ordinateur portable
Applications 'event-driven'
Ouvrir la voie à une entreprise réactive en temps réelTélécharger le livre blanc

Découvrez la simplicité et la puissance d'Atlas Stream Processing

Utilisez Atlas Stream Processing pour traiter et valider facilement des données d'événements complexes, en les fusionnant pour les utiliser exactement là où vous en avez besoin.
Voir la documentation
Requête de flux de données Apache Kafka
Atlas Stream Processing facilite la requête des données d'Apache Kafka comme sur MongoDB. Il suffit de définir une source, les étapes d'agrégation souhaitées et un récepteur pour traiter rapidement vos flux de données Apache Kafka.
Analyses avancées avec fonctions de fenêtrage
Les opérateurs de fenêtre d’Atlas Stream Processing vous permettent d’analyser et de traiter des fenêtres de données spécifiques et d'une certaine taille au sein d’un flux de données continu. Vous identifiez ainsi plus facilement les modèles et les tendances.
Validation du schéma des événements complexes
La validation continue est essentielle pour s'assurer que les événements sont correctement formés avant le traitement, détecter les messages corrompus et connaître les données arrivées tardivement qui ont manqué une fenêtre de traitement.
Requête de flux de données Apache Kafka
Atlas Stream Processing facilite la requête des données d'Apache Kafka comme sur MongoDB. Il suffit de définir une source, les étapes d'agrégation souhaitées et un récepteur pour traiter rapidement vos flux de données Apache Kafka.
API de requête MongoDB
Analyses avancées avec fonctions de fenêtrage
Les opérateurs de fenêtre d’Atlas Stream Processing vous permettent d’analyser et de traiter des fenêtres de données spécifiques et d'une certaine taille au sein d’un flux de données continu. Vous identifiez ainsi plus facilement les modèles et les tendances.
API de requête MongoDB
Validation du schéma des événements complexes
La validation continue est essentielle pour s'assurer que les événements sont correctement formés avant le traitement, détecter les messages corrompus et connaître les données arrivées tardivement qui ont manqué une fenêtre de traitement.
API de requête MongoDB
API de requête MongoDB

Tirez le meilleur parti d'Atlas

Offrez plus d'expériences et d'informations basées sur les données grâce au reste de notre Developer Data Platform.
atlas_database

Base de données

Commencez par le service de base de données multi-cloud conçu pour la résilience, l'évolutivité et les plus hauts niveaux de confidentialité et de sécurité des données.

atlas_triggers

Triggers

Exécutez automatiquement du code en réponse à des modifications de la base de données, des événements utilisateur ou des intervalles prédéfinis.

connectors_kafka

Connecteur Kafka

Intégrez nativement les données MongoDB dans l’écosystème Kafka.


FAQ

Vous souhaitez en savoir plus sur le stream processing?
Afficher plus de ressources
Qu'est-ce que le streaming de données ?
Les données de streaming sont continuellement générées à partir d'un large éventail de sources. Les capteurs IoT, les microservices et les appareils mobiles sont tous des sources courantes de flux de données à haut volume. La nature continue des données de streaming et leur immuabilité les distinguent des données statiques au repos dans une base de données.
Qu'est-ce que le stream processing ?
Le stream processing consiste à ingérer et à transformer en continu des données d'événements à partir d'une plateforme d'événements (comme Apache Kafka) afin d'exécuter diverses fonctions. Il peut s'agir de MEAN, de créer des filtres simples pour supprimer les données inutiles, d'effectuer des agrégations pour compter ou additionner les données selon les besoins, de créer Windows, et bien d'autres choses encore. Le stream processing peut être une caractéristique différenciatrice dans les applications event-driven, permettant une expérience client plus réactive et plus sensible.
Quelle est la différence entre l'event streaming et le stream processing ?

Les données streamning sont stockées dans des plateformes d'event streaming (comme Apache Kafka), et ces systèmes sont essentiellement des journaux distribués immuables. Les données d'événements sont publiées et consommées à partir de plateformes d'event streaming à l'aide d'API.

Les développeurs doivent utiliser un stream processor pour effectuer des traitements plus avancés, tels que les agrégations avec état, les opérations sur les fenêtres, les mutations et la création de vues matérialisées. Ces opérations sont similaires à celles effectuées lors de l'exécution de requêtes sur une base de données, sauf que le traitement en continu interroge en permanence un flux infini de données. Ce domaine de la diffusion en continu est plus récent ; cependant, des technologies telles que Apache Flink et Spark Streaming gagnent rapidement du terrain.

Avec Atlas Stream Processing, MongoDB offre aux développeurs un meilleur moyen de traiter les flux à utiliser dans leurs applications, en tirant parti du framework d'agrégation.

Pourquoi MongoDB a conçu Atlas Stream Processing ?
Le stream processing est un élément de plus en plus important pour la création d'applications réactives et axées sur les données. En ajoutant le stream processing en tant que fonctionnalité native dans Atlas, nous aidons davantage de développeurs à créer des applications innovantes en tirant parti de MongoDB Atlas, notre developer data platform multi-cloud.
Comment commencer à utiliser l'aperçu public d'Atlas Stream Processing ?
Atlas Stream Processing est désormais disponible pour tous les utilisateurs d'Atlas. Il suffit de se connecter et de cliquer sur l'onglet « Stream Processing » pour commencer.
Quelle est la différence entre le stream processing et le batch processing?

Le stream processing est un processus continu. Dans le cadre de la création d'applications axées sur les événements, il offre des fonctionnalités réactives et attrayantes telles que les notifications en temps réel, la personnalisation, la planification du routage et la maintenance prédictive.

Veuillez noter que le batch processing ne fonctionne pas sur les données générées en continu. Il collecte des données sur une période précise, puis traite ces données statiques si besoin. Il peut s'agir par exemple d'une entreprise de vente au détail qui collecte quotidiennement les données relatives aux ventes à la fin de la journée à des fins de reporting et/ou de mise à jour des niveaux de stock.

Commencez avec Atlas dès aujourd'hui

Atlas Stream Processing est désormais disponible en aperçu public.
Se connecter
Illustration d'un pipeline représentant Atlas Stream Processing