BlogAtlas Stream Processing unterstützt jetzt Microsoft Azure! Mehr erfahren >>

ATLAS

Atlas Stream Processing

Vereinfachen Sie die Integration von MongoDB mit Apache Kafka, um ereignisgesteuerte Anwendungen zu entwickeln.

Starten Sie jetzt
Darstellung von Vektoren, die in ein Rohr hinein- und herausfließen.

Ein Datenmodell, das für Streaming-Daten entwickelt wurde

Die Schemaverwaltung ist entscheidend für die Datenkorrektheit und die Produktivität der Entwickler bei der Arbeit mit Streaming-Daten. Das Dokumentmodell bietet Entwicklern ein flexibles und natürliches Datenmodell zum Erstellen von Apps mit Echtzeitdaten.

Ein Datenmodell, das für die Veranschaulichung von Streaming-Daten entwickelt wurde.
Eine einheitliche Darstellung des Entwicklererlebnisses.

Einheitliches Entwicklererlebnis

Entwickler können eine Plattform – über API, Abfragesprache und Datenmodell hinweg – nutzen, um kontinuierlich Streaming-Daten aus Apache Kafka zusammen mit den in ihren Datenbanken gespeicherten kritischen Anwendungsdaten zu verarbeiten.

vollständig verwaltet in Atlas

Mit wenigen Codezeilen können Entwickler Streaming-Daten von Apache Kafka schnell in ihre Datenbank integrieren, um reaktive und reaktionsfähige Anwendungen zu erstellen – alles vollständig verwaltet durch Atlas.

Vollständig verwaltet in der Atlas-Illustration.

Native Stream-Verarbeitung in MongoDB Atlas

Verwenden Sie Atlas Stream Processing, um komplexe Ereignisdaten einfach zu verarbeiten und zu validieren und sie genau dort zusammenzuführen, wo Sie sie verwenden müssen.

Mit Apache Kafka-Datenströmen integrieren

Atlas Stream Processing macht das Abfragen von Daten von Apache Kafka so einfach wie das Abfragen einer MongoDB-Datenbank. Ein Stream-Prozessor besteht aus einer „Source“-Stufe, einer beliebigen Anzahl von „Processing“-Stufen und einer „Sink“-Stufe.

Die Dokumentation lesen
MongoDB Abfrage-API
Die Dokumentation lesen

Kontinuierliche Analysen mit Window Functions durchführen

Mit den Window-Operatoren in Atlas Stream Processing können Sie spezifische, festgelegte Datenfenster innerhalb eines kontinuierlichen Datenstroms analysieren und verarbeiten, was es einfach macht, Muster und Trends in nahezu Echtzeit zu entdecken.

Die Dokumentation lesen
MongoDB Abfrage-API

Schema bei komplexen Ereignissen validieren

In Atlas Stream Processing können Entwickler kontinuierliche Validierung durchführen. Das Erkennen potenzieller Nachrichtenkorruption und verspätet eintreffender Daten stellt sicher, dass Ereignisse vor der Verarbeitung korrekt gebildet werden.

Die Dokumentation lesen
MongoDB Abfrage-API

Erfolge von Kunden mit Atlas Stream Processing

Alle Kunden anzeigen
KONTINUIERLICHE INSIGHTS
„Bei Acoustic liegt unser Hauptaugenmerk darauf, Marken mit Behavioral Insights zu versorgen, die es ihnen ermöglichen, ansprechende, personalisierte Kundenerfahrungen zu schaffen. Mit Atlas Stream Processing können unsere Entwickler die Funktionen, die sie bereits aus der Arbeit mit Daten in Atlas kennen, dazu nutzen, neue Daten kontinuierlich zu verarbeiten und so sicherzustellen, dass unsere Kunden Zugang zu Kundeneinblicken in Echtzeit haben.“
John Riewerts
EVP of Engineering, Acoustic
Weitere Informationen
KONTINUIERLICHE INSIGHTS
„Bei Acoustic liegt unser Hauptaugenmerk darauf, Marken mit Behavioral Insights zu versorgen, die es ihnen ermöglichen, ansprechende, personalisierte Kundenerfahrungen zu schaffen. Mit Atlas Stream Processing können unsere Entwickler die Funktionen, die sie bereits aus der Arbeit mit Daten in Atlas kennen, dazu nutzen, neue Daten kontinuierlich zu verarbeiten und so sicherzustellen, dass unsere Kunden Zugang zu Kundeneinblicken in Echtzeit haben.“
John Riewerts
EVP of Engineering, Acoustic
Weitere Informationen
EREIGNISGESTEUERTE APPS
„Atlas Stream Processing ermöglicht es uns, Daten zu verarbeiten, zu validieren und zu transformieren, bevor wir sie an unsere Messaging-Architektur in AWS senden, wodurch ereignisgesteuerte Updates auf unserer gesamten Plattform ermöglicht werden. Die Zuverlässigkeit und Leistung von Atlas Stream Processing haben unsere Produktivität gesteigert, die Entwicklererfahrung verbessert und die Infrastrukturkosten gesenkt.“
Cody Perry
Softwareentwickler, Meltwater
Weitere Informationen

Learning Hub

Finden Sie Whitepapers, Tutorials und Videos zum Umgang mit Streaming-Daten.

Anwendungsfälle für Stream-Verarbeitung

Alle Anwendungsfälle anzeigen

FAQ

Sind Sie bereit, einzusteigen?

Sehen Sie sich ein Tutorial an, um noch heute mit der Erstellung eines Stream-Prozessors zu beginnen.
Starten Sie jetztJetzt registrieren
GLEICH HEUTE LOSLEGEN
  • Einfache Integration von Kafka und MongoDB
  • Daten kontinuierlich verarbeiten.
  • Erfahrung mit nativer MongoDB
  • Global verfügbar