BLOGAtlas Stream Processing ist jetzt als Public Preview verfügbar! Weiterlesen

ATLAS (PREVIEW)

Atlas Stream Processing. Vereinheitlichen Sie Daten „in motion“ und „at rest“.

Verwandeln Sie die Entwicklung ereignisgesteuerter Anwendungen durch die kontinuierliche Verarbeitung von Stream mit einer vertrauten Entwicklererfahrung.
Tutorial erkunden
Bild zur Erläuterung von Atlas Stream Processing
Atlas Stream Processing in 3 Minuten erklärt
Erfahren Sie, wie Atlas Stream Processing das Dokumentmodell, flexible Schemata und das umfangreiche Aggregationsframework kombiniert, um mit Leistung und Komfort beim Entwickeln von Anwendungen zu punkten, für die zum Zwecke der Skalierung komplexe Ereignisdaten verarbeitet werden müssen.Video ansehen
Abbildung einer Pipeline mit den Abläufen von Atlas Stream Processing.

Stream-Verarbeitung wie nie zuvor

Bei der Arbeit mit Streaming-Daten ist das Schema-Management von entscheidender Bedeutung für die Datenkorrektheit und Entwicklerproduktivität. Das Dokumentmodell und das Aggregationsframework von MongoDB bieten Entwicklern leistungsstarke Funktionen und Produktivitätssteigerungen, die Sie bei keiner anderen Stream-Verarbeitung finden.
Abbildung von Formen und Datendiagrammen, die in ein grünes Feld eingefügt werden.

Vereinheitlichung von Daten in Bewegung und Daten im Ruhezustand

Zum ersten Mal können Entwickler eine Plattform – über API, Abfragesprache und Datenmodell hinweg – nutzen, um kontinuierlich Streaming-Daten zusammen mit den in ihrer Datenbank gespeicherten kritischen Anwendungsdaten zu verarbeiten.
Abbildung einer Datenbank, einer Schnittstelle und eines Daten-Buckets.

vollständig verwaltet in Atlas

Atlas Stream Processing basiert auf unserer robusten und integrierten Entwicklerdatenplattform. Mit nur wenigen API-Aufrufen und Codezeilen kann ein Entwickler einen Stream-Prozessor, eine Datenbank und eine API-Serviceschicht errichten – mit vollständiger Verwaltung durch Atlas.

Atlas Stream Processing

Wie vereinheitlicht es die Erfahrung der Arbeit mit Daten in Bewegung und Daten im Ruhezustand?
Atlas Stream Processing diagram

Funktionen
misc_grow

Kontinuierliche Verarbeitung

Erstellen Sie aggregation pipeline , um Streaming-Daten kontinuierlich abzufragen, zu analysieren und darauf React , ohne die mit der Stapelverarbeitung verbundenen Verzögerungen.

general_features_complexity

Kontinuierliche Validierung

Führen Sie eine kontinuierliche Schema durch, um vor der Verarbeitung zu überprüfen, ob Ereignisse ordnungsgemäß gebildet werden, Nachrichtenbeschädigungen zu erkennen und verspätete Daten zu erkennen, die ein Verarbeitungsfenster verpasst haben.

general_features_build_faster

Kontinuierliche Zusammenführung

Materialisieren Sie kontinuierlich Ansichten in Atlas- collection oder Streaming-Systemen wie Apache Kafka, um aktuelle analytische Ansichten der Daten zu erhalten, die Entscheidungsfindung und Maßnahmen unterstützen.

KONTINUIERLICHE INSIGHTS
„Bei Acoustic liegt unser Hauptaugenmerk darauf, Marken mit Behavioral Insights zu versorgen, die es ihnen ermöglichen, ansprechende, personalisierte Kundenerfahrungen zu schaffen. Mit Atlas Stream Processing können unsere Ingenieure die Funktionen, die sie bereits aus der Arbeit mit Daten in Atlas kennen, dazu nutzen, neue Daten kontinuierlich zu verarbeiten und so sicherzustellen, dass unsere Kunden Zugang zu Kundeneinblicken in Echtzeit haben.“
John Riewerts
EVP of Engineering, Acoustic
Hände tippen auf dem Laptop.
Ereignisgesteuerte Anwendungen
Wir ebnen den Weg zu einem reaktionsfähigen und reaktiven EchtzeitgeschäftWhitepaper herunterladen

Erleben Sie die Einfachheit und Leistungsfähigkeit von Atlas Stream Processing

Verwenden Sie Atlas Stream Processing, um komplexe Ereignisdaten einfach zu verarbeiten und zu validieren und sie für den Einsatz genau dort zusammenzuführen, wo Sie sie benötigen.
Dokumentation anzeigen
Abfragen von Apache Kafka Datenstreams
Atlas Stream Processing macht das Abfragen von Daten von Apache Kafka so einfach wie das Abfragen von MongoDB. Einfach eine Quelle, die gewünschten Aggregationsstufen und ein „Sink“ definieren, um Ihre Apache Kafka Datenstreams schnell zu verarbeiten.
Erweiterte Analysen mit Window Functions
Mit den Window Operators in Atlas Stream Processing können Sie bestimmte Fenster fester Größe innerhalb eines kontinuierlichen Datenstroms analysieren und verarbeiten, wodurch sich Muster und Trends leicht erkennen lassen.
Schema-Validierung komplexer Ereignisse
Eine kontinuierliche Validierung ist unerlässlich, damit Ereignisse vor der Verarbeitung die richtige Form haben, um beschädigte Nachrichten zu erkennen und festzustellen, ob verspätet eintreffende Daten ein Verarbeitungsfenster verpasst haben.
Abfragen von Apache Kafka Datenstreams
Atlas Stream Processing macht das Abfragen von Daten von Apache Kafka so einfach wie das Abfragen von MongoDB. Einfach eine Quelle, die gewünschten Aggregationsstufen und ein „Sink“ definieren, um Ihre Apache Kafka Datenstreams schnell zu verarbeiten.
MongoDB Query API
Erweiterte Analysen mit Window Functions
Mit den Window Operators in Atlas Stream Processing können Sie bestimmte Fenster fester Größe innerhalb eines kontinuierlichen Datenstroms analysieren und verarbeiten, wodurch sich Muster und Trends leicht erkennen lassen.
MongoDB Query API
Schema-Validierung komplexer Ereignisse
Eine kontinuierliche Validierung ist unerlässlich, damit Ereignisse vor der Verarbeitung die richtige Form haben, um beschädigte Nachrichten zu erkennen und festzustellen, ob verspätet eintreffende Daten ein Verarbeitungsfenster verpasst haben.
MongoDB Query API
MongoDB Query API

Atlas optimal nutzen

Mit den weiteren Komponenten unserer Entwicklerdatenplattform erhalten Sie noch mehr datengestützte Erlebnisse und Erkenntnisse.
atlas_database

Datenbank

Nutzen Sie unseren Multi-Cloud-Datenbank-Service, der für Ausfallsicherheit, Skalierung und ein Höchstmaß an Datenschutz und Sicherheit entworfen wurde.

atlas_triggers

Auslöser

Führen Sie Code bei Datenbankänderungen, Benutzerereignissen oder in voreingestellten Intervallen automatisch aus.

connectors_kafka

Kafka Connector

Native Integration von MongoDB Daten in das Kafka-Ökosystem.


Häufige Fragen

Möchten Sie mehr über die Stream-Verarbeitung erfahren?
Weitere Ressourcen anzeigen
Was sind Streaming-Daten?
Streaming-Daten werden kontinuierlich aus unterschiedlichsten Quellen generiert. IoT-Sensoren, Microservices und mobile Geräte sind allesamt gängige Quellen für große Datenströme. Da Streaming-Daten kontinuierlich eingehen und unveränderlich sind, unterscheiden sie sich von statischen, ruhenden Daten einer Datenbank.
Was ist Stream-Verarbeitung?
Bei der Stream-Verarbeitung werden kontinuierlich Ereignisdaten von einer Ereignis-Messaging-Plattform (wie Apache Kafka) erfasst und umgewandelt, um verschiedene Funktionen auszuführen. Dies könnte MEAN einfache Filter zu erstellen, um nicht benötigte Daten zu entfernen, Aggregationen durchzuführen, um Daten nach Bedarf zu zählen oder zu summieren, zustandsbehaftete Windows zu erstellen und vieles mehr. Die Stream-Verarbeitung kann ein Unterscheidungsmerkmal in ereignisgesteuerten Anwendungen sein und eine reaktivere, reaktionsfähigere Kundenerfahrung ermöglichen.
Wie unterscheidet sich Event-Streaming von der Stream-Verarbeitung?

Streaming-Daten befinden sich innerhalb von Ereignis-Streaming-Plattformen (wie Apache Kafka) und diese Systeme sind im Wesentlichen ein unveränderlich verteiltes Protokoll. Ereignisdaten werden mithilfe von API von Ereignis-Streaming-Plattformen veröffentlicht und genutzt.

Entwickler benötigen für fortschrittlichere Verarbeitungsvorgänge einen Streaming-Prozessor, z. B. für zustandsorientierte Aggregationen, Window Operations, Mutationen und die Erstellung materialisierter Ansichten. Diese ähneln den Vorgängen, die bei Abfragen in einer Datenbank ausgeführt werden, mit der Ausnahme, dass die Stream-Verarbeitung einen endlosen Datenstrom kontinuierlich abfragt. Dieser Bereich des Streamings ist noch im Entstehen; Technologien wie Apache Flink und Spark Streaming nehmen jedoch rasch Fahrt auf.

Mit Atlas Stream Processing bietet MongoDB Entwicklern eine bessere Möglichkeit, Streams mithilfe des Aggregationsframeworks in ihren Anwendungen zu verarbeiten.

Warum hat MongoDB Atlas Stream Processing entwickelt?
Für reaktionsfähige, ereignisgesteuerte Anwendungen wird die Stream-Verarbeitung immer wichtiger. Durch Hinzufügen der Stream-Verarbeitung als native Funktion in Atlas können Entwickler noch innovativere Anwendungen entwickeln und dabei unsere Multi-Cloud Entwicklerdatenplattform MongoDB Atlas nutzen.
Wie finde ich den Einstieg in den Public Preview von Atlas Stream Processing?
Atlas Stream Processing ist jetzt für alle Atlas Benutzer verfügbar. Melden Sie sich einfach an und klicken Sie auf die Registerkarte Stream Processing, um loszulegen.
Wie unterscheidet sich die Stream-Verarbeitung von der Batch-Verarbeitung?

Die Stream-Verarbeitung erfolgt kontinuierlich. Im Zusammenhang mit der Entwicklung ereignisgesteuerter Anwendungen ermöglicht die Stream-Verarbeitung reaktive und überzeugende Abläufe wie Echtzeit-Benachrichtigungen sowie die Personalisierung, Routenplanung oder vorausschauende Wartung.

Die Batch-Verarbeitung ist nicht auf kontinuierlich produzierte Daten anwendbar. Bei der Batch-Verarbeitung werden stattdessen Daten über einen bestimmten Zeitraum erhoben und dann nach Bedarf verarbeitet. Ein Beispiel für die Batch-Verarbeitung ist ein Einzelhandelsunternehmen, das jeden Tag zum Geschäftsschluss Verkäufe zu Berichtszwecken und/oder zur Aktualisierung der Lagerbestände erfasst.

Profitieren Sie noch heute von Atlas

Atlas Stream Processing ist jetzt als Public Preview verfügbar.
Log In
Abbildung einer Pipeline mit den Abläufen von Atlas Stream Processing.