Overview
El conector Spark admite el modo de transmisión, que utiliza Spark Structured Streaming para procesar los datos en cuanto están disponibles, en lugar de esperar a que transcurra un intervalo de tiempo. Spark Structured Streaming es un motor de procesamiento de flujos de datos al que se puede acceder mediante la API Dataset o DataFrame.
Importante
Apache Spark contiene dos motores de procesamiento de flujo diferentes:
Spark Streaming con DStreams, ahora un motor heredado sin soporte
Esta guía se aplica únicamente a Spark Structured Streaming.
Las siguientes secciones le muestran cómo usar el conector Spark para leer datos de MongoDB y escribir datos en MongoDB en modo de transmisión:
Tip
Documentación de Apache Spark
Para obtener más información sobre el uso de Spark para procesar flujos de datos, consulte la Guía de programación de Spark.