Connectors

MongoDB Connector for Apache Spark

Unser Konnektor verknüpft Apache Spark, die branchenführende Engine für die Datenverarbeitung, mit MongoDB, der am schnellsten wachsenden Datenbank der Branche. So können Sie die Vorteile beider Technologien nutzen, um innovative, ausgefeilte Tools für Echtzeitanalysen zu erstellen. MongoDB Connector for Apache Spark ist heute allgemein verfügbar, zertifiziert und wird für den Produktionseinsatz unterstützt.

Jetzt herunterladen

Schnell relevante Erkenntnisse gewinnen

Wir leben in einer Welt, in der sich alles um „Big Data“ dreht. Dabei liegt der Mehrwert nicht nur in den Daten selbst, sondern vor allem in den Erkenntnissen, die sich aus diesen Daten gewinnen lassen. Unternehmen mit der Fähigkeit, die in ihren Daten enthaltenen Erkenntnisse schnell nutzbar zu machen, haben einen wichtigen Wettbewerbsvorteil. Allerdings genügt es mittlerweile nicht mehr, die Daten in den geschäftlich genutzten Systemen zu sammeln und dann Nacht für Nacht mithilfe von ETL-Prozessen in das unternehmenseigene Data Warehouse zu kopieren.

Eine Illustration eines steigenden Balkendiagramms und eines Raketenschiffs
Ein Diagramm zur Darstellung der Analyseanwendung, die durch den Apache Spark Connector ermöglicht wird

Erschließen Sie das Potenzial von Apache Spark

Der MongoDB Connector for Apache Spark unterstützt alle Spark-Bibliotheken, einschließlich Scala, Java, Python und R. Er stellt MongoDB-Daten in Form von DataFrames und Datasets für Analyseprozesse bereit, bei denen maschinelles Lernen, Graphen, Streaming und SQL-APIs zur Anwendung kommen.

Nutzen Sie die Vorteile von MongoDB

Der MongoDB Connector for Apache Spark kann die Aggregationspipeline und die umfangreichen Sekundärindizes von MongoDB nutzen, um nur die benötigten Daten zu extrahieren, zu filtern und zu verarbeiten – beispielsweise um alle Kunden in einer bestimmten Region zu analysieren. Traditionelle NoSQL-Datenspeicher bieten keine Sekundärindizes oder datenbankinterne Aggregationen. In diesen Fällen müsste Spark alle Daten basierend auf einem einfachen Primärschlüssel extrahieren, auch wenn nur eine Teilmenge dieser Daten für den Spark-Prozess erforderlich ist. Der MongoDB Connector for Apache Spark legt Resilient Distributed Datasets (RDDs) mit dem MongoDB-Quellknoten zusammen, um die Datenbewegung im Cluster zu minimieren und die Latenz zu verringern.
Eine Illustration einer Aggregationspipeline mit Datenfluss

MongoDB und Apache Spark: die ideale Kombination für Datenexperten

Obwohl MongoDB von Haus aus leistungsstarke Funktionen für Echtzeitanalysen bietet, gibt es Anwendungsfälle, in denen die Verarbeitung der von MongoDB verwalteten Daten mit der Apache-Spark-Engine beschleunigt werden kann. Durch die gemeinsame Nutzung beider Lösungen können Anwender die von Spark gelieferten Analyseergebnisse in Echtzeit in ihre Geschäftsprozessen in MongoDB einfließen lassen.

Nächste Schritte

Sind Sie bereit, einzusteigen?

Holen Sie sich MongoDB-Connector for Apache Spark.
Jetzt testenKontakt zum Vertrieb
Database illustration