Definición
Novedad en la 7.0 versión: Crea un Stream Processor en el Stream Processing Workspaceactual.
Compatibilidad
Este método es compatible en espacios de trabajo de Atlas Stream Processing.
Sintaxis
El método sp.createStreamProcessor() tiene la siguiente sintaxis:
sp.createStreamProcessor( <name>, [ <pipeline> ], { <options> } )
Campos de comandos
sp.createStreamProcessor() toma estos campos:
Campo | Tipo | Necesidad | Descripción |
|---|---|---|---|
| string | Requerido | Nombre lógico para el procesador de flujos. Esto debe ser único dentro del espacio de trabajo de stream processing. |
| arreglo | Requerido | Transmisión pipeline de agregación que desea aplicar a sus datos de transmisión. |
| Objeto | Opcional | Objeto que define varias configuraciones opcionales para tu procesador de flujo. |
| Objeto | Condicional | Objeto que asigna un
Cola demensajes no entregados para su |
| string | Condicional | Etiqueta que identifica una conexión en tu registro de conexiones. Esta conexión debe hacer referencia a un clúster de Atlas. Este campo es necesario si se define el campo |
| string | Condicional | Nombre de una base de datos Atlas en el clúster especificado en |
| string | Condicional | Nombre de una colección en la base de datos especificada en |
| string | Opcional | El nivel al que Atlas Stream Processing asigna el procesador. Si no declara esta opción, Atlas Stream Processing asigna el procesador al nivel del espacio de trabajo de Stream Processing. Debe ser uno de los siguientes:
Para obtener más información, consulta Niveles. |
Comportamiento
sp.createStreamProcessor() crea un procesador de flujo persistente y nombrado en el espacio de trabajo actual de stream processing. Puedes inicializar este procesador de flujo con sp.processor.start(). Si intenta crear un procesador de flujo con el mismo nombre que un procesador de flujo existente, mongosh devolverá un error.
Control de acceso
El usuario que ejecuta sp.createStreamProcessor() debe tener el rol atlasAdmin.
Ejemplo
El siguiente ejemplo crea un procesador de flujo llamado solarDemo que ingiere datos de la conexión sample_stream_solar. El procesador excluye todos los documentos donde el valor del campo device_id es device_8, trasladando el resto a una ventana deslizante con una duración de 10segundos. Cada ventana agrupa los documentos recibidos y devuelve diversas estadísticas útiles de cada grupo. A continuación, el procesador de flujo combina estos registros a solar_db.solar_coll a través de la conexión mongodb1.
sp.createStreamProcessor( 'solarDemo', [ { $source: { connectionName: 'sample_stream_solar', timeField: { $dateFromString: { dateString: '$timestamp' } } } }, { $match: { $expr: { $ne: [ "$device_id", "device_8" ] } } }, { $tumblingWindow: { interval: { size: Int32(10), unit: "second" }, "pipeline": [ { $group: { "_id": { "device_id": "$device_id" }, "max_temp": { $max: "$obs.temp" }, "max_watts": { $max: "$obs.watts" }, "min_watts": { $min: "$obs.watts" }, "avg_watts": { $avg: "$obs.watts" }, "median_watts": { $median: { input: "$obs.watts", method: "approximate" } } } } ] } }, { $merge: { into: { connectionName: "mongodb1", db: "solar_db", coll: "solar_coll" }, on: ["_id"] } } ] )