$out toma los documentos devueltos por la canalización de agregación y los escribe en una colección específica. El operador $out debe ser la última etapa de la canalización de agregación. En Atlas Data Federation, puede usar $out para escribir datos de cualquiera de los almacenes de instancias de bases de datos federadas compatibles o múltiples almacenes de instancias de bases de datos federadas compatibles al utilizar consultas federadas a cualquiera de los siguientes:
AWS CubosS con permisos de lectura y escritura3
Contenedores deAzure Blob Storage con permisos de lectura y escritura
Almacenamiento en la nube de Google (GCS)
Debe conectarse a su instancia de base de datos federada para usar $out.
Permisos requeridos
Debes tener:
Una instancia de base de datos federada configurada para un depósito S3 con permisos de lectura y escritura o 3s:PutObject permisos.
Un usuario de MongoDB con el rol atlasAdmin o un rol personalizado con el
outToS3privilegio.
Debes tener:
Una instancia de base de datos federada configurada para Azure Blob Storage con un rol de Azure que tiene permisos de lectura y escritura.
Un usuario de MongoDB con el rol atlasAdmin o un rol personalizado con el
outToAzureprivilegio.
Debes tener:
Una instancia de base de datos federada configurada para un depósito de Google Cloud Storage con acceso a una cuenta de servicio de GCP.
Un usuario de MongoDB con el rol atlasAdmin o un rol personalizado con el
outToGCPprivilegio.
Nota
Para usar $out para escribir en una colección en una base de datos diferente en el mismo clúster Atlas, su clúster Atlas debe estar en MongoDB versión 7.0 o posterior.
Debe ser un usuario de base de datos con uno de los siguientes roles:
Un rol personalizado con los siguientes privilegios:
Sintaxis
1 { 2 "$out": { 3 "s3": { 4 "bucket": "<bucket-name>", 5 "region": "<aws-region>", 6 "filename": "<file-name>", 7 "format": { 8 "name": "<file-format>", 9 "maxFileSize": "<file-size>", 10 "maxRowGroupSize": "<row-group-size>", 11 "columnCompression": "<compression-type>" 12 }, 13 "errorMode": "stop"|"continue" 14 } 15 } 16 }
1 { 2 "$out": { 3 "azure": { 4 "serviceURL": "<storage-account-url>", 5 "containerName": "<container-name>", 6 "region": "<azure-region>", 7 "filename": "<file-name>", 8 "format": { 9 "name": "<file-format>", 10 "maxFileSize": "<file-size>", 11 "maxRowGroupSize": "<row-group-size>", 12 "columnCompression": "<compression-type>" 13 }, 14 "errorMode": "stop"|"continue" 15 } 16 } 17 }
1 { 2 "$out": { 3 "gcs": { 4 "bucket": "<bucket-name>", 5 "region": "<aws-region>", 6 "filename": "<file-name>", 7 "format": { 8 "name": "<file-format>", 9 "maxFileSize": "<file-size>", 10 "maxRowGroupSize": "<row-group-size>", 11 "columnCompression": "<compression-type>" 12 }, 13 "errorMode": "stop"|"continue" 14 } 15 } 16 }
1 { 2 "$out": { 3 "atlas": { 4 "projectId": "<atlas-project-ID>", 5 "clusterName": "<atlas-cluster-name>", 6 "db": "<atlas-database-name>", 7 "coll": "<atlas-collection-name>" 8 } 9 } 10 }
Campos
Campo | Tipo | Descripción | Necesidad | ||||
|---|---|---|---|---|---|---|---|
| Objeto | Ubicación para escribir los documentos desde el pipeline de agregación. | Requerido | ||||
| string | Nombre del depósito S3 donde se escribirán los documentos desde la canalización de agregación. La llamada generada a S3 inserta un Por ejemplo, si establece | Requerido | ||||
| string | Nombre de la región de AWS donde se aloja el bucket. Si se omite, se utiliza la configuración de la instancia de base de datos federada para determinar la región donde se aloja el | Opcional | ||||
| string | Nombre del archivo al que se guardarán los documentos de la pipeline de agregación. El nombre de archivo puede ser constante o creado dinámicamente a partir de los campos de los documentos que lleguen a la etapa $out. Cualquier expresión de nombre de archivo que proporciones debe evaluarse a un tipo de dato IMPORTANTE: Si hay archivos en S3 con el mismo nombre y ruta que los archivos recién generados, $out sobrescribe los archivos existentes con los archivos recién generados. La llamada generada a S3 inserta un Por ejemplo, si establece | Requerido | ||||
| Objeto | Detalles del archivo en 3S. | Requerido | ||||
s3.format.name | enum | Formato del archivo en S.3 El valor puede ser uno de los siguientes:
1 Para este formato, $out escribe datos en formato JSON extendido de MongoDB. Para obtener más información, consulte Limitaciones. | Requerido | ||||
s3.format.maxFileSize | bytes | Tamaño máximo del archivo BSON sin comprimir en S.Al convertir3 de BSON a su formato preferido, el archivo resultante puede ser más pequeño (por ejemplo, al convertir a Parquet) o más grande (por ejemplo, al convertir a CSV). Si un documento es mayor que
Si se omite, es por defecto Cuando se alcanza el límite de tamaño del archivo actual, Atlas Data Federation crea un nuevo archivo en S.3 Añade un Por ejemplo, | Opcional | ||||
s3.format.maxRowGroupSize | string | Compatible únicamente con el formato de archivo Parquet. Tamaño máximo del grupo de filas que se usa al escribir en el archivo Parquet. Si se omite, el valor predeterminado es | Opcional | ||||
s3.format.columnCompression | string | Compatible únicamente con el formato de archivo Parquet. Tipo de compresión que se aplica para comprimir datos dentro de un archivo Parquet al formatearlo. Los valores válidos son:
Si se omite, es por defecto Para obtener más información, consulte Formatos de datos admitidos. | Opcional | ||||
| enum | Especifica cómo debe proceder Atlas Data Federation si se producen errores al procesar un documento. Por ejemplo, si Atlas Data Federation encuentra una matriz en un documento mientras escribe en un archivo CSV, Atlas Data Federation utiliza este valor para determinar si se omite el documento y se procesan otros. Los valores válidos son:
Si se omite, es por defecto | Opcional |
Campo | Tipo | Descripción | Necesidad | ||||
|---|---|---|---|---|---|---|---|
| Objeto | Ubicación para escribir los documentos desde el pipeline de agregación. | Requerido | ||||
| string | URL de la cuenta de almacenamiento de Azure en la que se escribirán documentos desde la canalización de agregación. | Requerido | ||||
| string | Nombre del contenedor de Azure Blob Storage en el que se escribirán documentos desde la canalización de agregación. | Requerido | ||||
| string | Nombre de la región de Azure que aloja el contenedor de Blob Storage. | Requerido | ||||
| string | Nombre del archivo en el que guardar documentos a partir de la pipeline de agregación. Acepta valores constantes o valores que evalúan como, | Requerido | ||||
| Objeto | Detalles del archivo en Azure Blob Storage. | Requerido | ||||
azure.format.name | enum | Formato del archivo en Azure Blob Storage. El valor puede ser uno de los siguientes:
1 Para este formato, $out escribe datos en formato JSON extendido de MongoDB. Para obtener más información, consulte Limitaciones. | Requerido | ||||
azure.format.maxFileSize | bytes | Tamaño máximo del documento BSON sin comprimir en Azure Blob Storage. Al convertir de BSON a tu formato preferido, el archivo de salida resultante podría ser más pequeño (por ejemplo, al convertir a Parquet) o más grande (por ejemplo, al convertir a CSV). Si un documento es mayor que
Si se omite, es por defecto Cuando se alcanza el límite de tamaño del archivo actual, Atlas Data Federation crea un nuevo archivo en S.3 Añade un Por ejemplo, | Opcional | ||||
azure.format.maxRowGroupSize | string | Compatible únicamente con el formato de archivo Parquet. Tamaño máximo del grupo de filas que se usa al escribir en el archivo Parquet. Si se omite, el valor predeterminado es | Opcional | ||||
azure.format.columnCompression | string | Compatible únicamente con el formato de archivo Parquet. Tipo de compresión que se aplica para comprimir datos dentro de un archivo Parquet al formatearlo. Los valores válidos son:
Si se omite, es por defecto Para obtener más información, consulte Formatos de datos admitidos. | Opcional | ||||
| enum | Especifica cómo debe proceder Atlas Data Federation cuando detecta un error al procesar un documento. Los valores válidos son:
Si se omite, es por defecto Para obtener más información,consulte Errores. | Opcional |
Campo | Tipo | Descripción | Necesidad | |
|---|---|---|---|---|
| Objeto | Ubicación para escribir los documentos desde el pipeline de agregación. | Requerido | |
| string | Nombre del depósito de Google Cloud Storage donde se escribirán los documentos desde la canalización de agregación. La llamada generada a Google Cloud inserta un Por ejemplo, si establece | Requerido | |
| string | Nombre de la región de AWS donde se aloja el bucket. Si se omite, se utiliza la configuración de la instancia de base de datos federada para determinar la región donde se aloja el | Opcional | |
| string | Nombre del archivo donde se escribirán los documentos del flujo de trabajo de agregación. El nombre de archivo puede ser constante o crearse dinámicamente a partir de los campos de los documentos que llegan a la etapa $out. Cualquier expresión de nombre de archivo que proporcione debe evaluarse como un La llamada generada a Google Cloud Storage inserta un Por ejemplo, si establece | Requerido | |
| Objeto | Detalles del archivo en Google Cloud Storage. | Requerido | |
gcs.format.name | enum | Formato del archivo en Google Cloud Storage. El valor puede ser uno de los siguientes:
1 Para este formato, $out escribe datos en formato JSON extendido de MongoDB. Para obtener más información, consulte Limitaciones. | Requerido |
Campo | Tipo | Descripción | Necesidad |
|---|---|---|---|
| Objeto | Ubicación para escribir los documentos desde el pipeline de agregación. | Requerido |
| string | Nombre del cluster Atlas. | Requerido |
| string | Nombre de la colección en el clúster Atlas. | Requerido |
| string | Nombre de la base de datos en el clúster Atlas que contiene la colección. | Requerido |
| string | Identificador único del proyecto que contiene el clúster Atlas. El ID del proyecto debe ser el mismo que el del proyecto que contiene la instancia de base de datos federada. Si se omite, se usa el ID predeterminado del proyecto que contiene la instancia de base de datos federada. | Opcional |
opciones
Opción | Tipo | Descripción | Necesidad | |
|---|---|---|---|---|
| booleano | Marca para ejecutar operaciones de agregación en segundo plano. Si se omite, el valor predeterminado es Utilice esta opción si desea enviar otras consultas nuevas sin esperar a que se completen las consultas que se están ejecutando actualmente o desconectar su conexión de instancia de base de datos federada mientras las consultas continúan ejecutándose en segundo plano. | Opcional |
Ejemplos
Crear un nombre de archivo
Los siguientes ejemplos muestran sintaxis $out para crear dinámicamente un nombre de archivo a partir de una cadena constante o de los campos del mismo tipo de datos o de tipos de datos diferentes en los documentos que llegan a la etapa $out.
Ejemplo de cadena simple
Ejemplo
Desea escribir 1 GiB de datos como archivos BSON comprimidos en un depósito S3 my-s3-bucket llamado.
Usando la siguiente sintaxis $out:
1 { 2 "$out": { 3 "s3": { 4 "bucket": "my-s3-bucket", 5 "filename": "big_box_store/", 6 "format": { 7 "name": "bson.gz" 8 } 9 } 10 } 11 }
Se omite el y,s3.region por lo tanto, Atlas Data Federation determina la región donde se aloja el depósito llamado a my-s3-bucket partir de la configuración de almacenamiento. $out escribe cinco archivos BSON comprimidos:
Los primeros 200 MiB de datos a un archivo que $out nombra
big_box_store/1.bson.gz.El valor
s3.filenamefunciona como constante en cada nombre de archivo. Este valor no depende de ningún campo ni valor del documento.Su
s3.filenametermina con un delimitador, por lo que Atlas Data Federation agrega el contador después de la constante.Si no terminara con un delimitador, Atlas Data Federation habría agregado un
.entre la constante y el contador, comobig_box_store.1.bson.gzDebido a que no cambió el tamaño máximo de archivo usando
s3.format.maxFileSize, Atlas Data Federation usa el valor predeterminado de 200 MiB.
El segundo 200 MiB de datos a un nuevo archivo que $out
big_box_store/2.bson.gzllama.Tres archivos más que $out nombran
big_box_store/3.bson.gzbig_box_store/5.bson.gzdel al.
Campo único de documentos
Ejemplo
Desea escribir 90 MiB de datos en archivos JSON en un depósito S3 my-s3-bucket llamado.
Usando la siguiente sintaxis $out:
1 { 2 "$out": { 3 "s3": { 4 "bucket": "my-s3-bucket", 5 "region": "us-east-1", 6 "filename": {"$toString": "$saleDate"}, 7 "format": { 8 "name": "json", 9 "maxFileSize": "100MiB" 10 } 11 } 12 } 13 }
$out escribe 90 MiB de datos en archivos JSON en la raíz del bucket. Cada archivo JSON contiene todos los documentos con el mismo saleDate valor. $out nombra cada archivo utilizando el valor de los documentos, saleDate convertido a una cadena.
Múltiples campos de documentos
Ejemplo
Desea escribir 176 MiB de datos como archivos BSON en un depósito S3 my-s3-bucket llamado.
Usando la siguiente sintaxis $out:
1 { 2 "$out": { 3 "s3": { 4 "bucket": "my-s3-bucket", 5 "region": "us-east-1", 6 "filename": { 7 "$concat": [ 8 "persons/", 9 "$name", "/", 10 "$uniqueId", "/" 11 ] 12 }, 13 "format": { 14 "name": "bson", 15 "maxFileSize": "200MiB" 16 } 17 } 18 } 19 }
$out escribe 176 MiB de datos en archivos BSON.Para nombrar cada archivo, $out concatena:
Una cadena constante
persons/y, de los documentos:El valor de cadena del campo
name,Una barra diagonal (
/),El valor de la cadena del campo
uniqueId, yUna barra diagonal (
/).
Cada archivo BSON contiene todos los documentos con los mismos name uniqueId valores y. $out nombra cada archivo utilizando losname uniqueId valores y de los documentos.
Varios tipos de campos de documentos
Ejemplo
Desea escribir 154 MiB de datos como archivos JSON comprimidos en un depósito S3 my-s3-bucket llamado.
Considere la siguiente sintaxis $out:
1 { 2 "$out": { 3 "s3": { 4 "bucket": "my-s3-bucket", 5 "region": "us-east-1", 6 "filename": { 7 "$concat": [ 8 "big-box-store/", 9 { 10 "$toString": "$storeNumber" 11 }, "/", 12 { 13 "$toString": "$saleDate" 14 }, "/", 15 "$partId", "/" 16 ] 17 }, 18 "format": { 19 "name": "json.gz", 20 "maxFileSize": "200MiB" 21 } 22 } 23 } 24 }
$out escribe 154 MiB de datos en archivos JSON comprimidos, donde cada archivo contiene todos los documentos con los mismos storeNumber saleDate partId valores, y. Para nombrar cada archivo, $out concatena:
Un valor de cadena constante de
big-box-store/,Un valor de cadena de un número de tienda único en el campo
storeNumber,Una barra diagonal (
/),Un valor de cadena de la fecha del campo
saleDate,Una barra diagonal (
/),Un valor de cadena de ID de pieza del campo
partId, yUna barra diagonal (
/).
Crear un nombre de archivo
Los siguientes ejemplos muestran sintaxis $out para crear dinámicamente un nombre de archivo a partir de una cadena constante o de los campos del mismo tipo de datos o de tipos de datos diferentes en los documentos que llegan a la etapa $out.
Ejemplo de cadena simple
Ejemplo
Se desea guardar 1 GiB de datos como archivos BSON comprimidos en una cuenta de almacenamiento Azure mystorageaccount y un contenedor llamado my-container.
Usando la siguiente sintaxis $out:
1 { 2 "$out": { 3 "azure": { 4 "serviceURL": "http://mystorageaccount.blob.core.windows.net/", 5 "container": "my-container", 6 "filename": "big_box_store/", 7 "format": { 8 "name": "bson.gz" 9 } 10 } 11 } 12 }
Se omite el y,azure.region por lo tanto, Atlas Data Federation determina la región donde está alojado el contenedor llamado a my-container partir de la configuración de almacenamiento. $out escribe cinco archivos BSON comprimidos:
Los primeros 200 MiB de datos a un archivo que $out nombra
big_box_store/1.bson.gz.El valor
azure.filenamefunciona como constante en cada nombre de archivo. Este valor no depende de ningún campo ni valor del documento.Su
azure.filenametermina con un delimitador, por lo que Atlas Data Federation agrega el contador después de la constante.Si no terminara con un delimitador, Atlas Data Federation habría agregado un
.entre la constante y el contador, comobig_box_store.1.bson.gzDebido a que no cambió el tamaño máximo de archivo usando
azure.format.maxFileSize, Atlas Data Federation usa el valor predeterminado de 200 MiB.
El segundo 200 MiB de datos a un nuevo archivo que $out
big_box_store/2.bson.gzllama.Tres archivos más que $out nombran
big_box_store/3.bson.gzbig_box_store/5.bson.gzdel al.
Campo único de documentos
Ejemplo
Desea escribir 90 MiB de datos en archivos JSON en un contenedor de Azure Blob Storage my-container llamado.
Usando la siguiente sintaxis $out:
1 { 2 "$out": { 3 "azure": { 4 "serviceURL": "http://mystorageaccount.blob.core.windows.net/", 5 "container": "my-container", 6 "region": "eastus2", 7 "filename": {"$toString": "$saleDate"}, 8 "format": { 9 "name": "json", 10 "maxFileSize": "100MiB" 11 } 12 } 13 } 14 }
$out escribe 90 MiB de datos en archivos JSON en la raíz del contenedor. Cada archivo JSON contiene todos los documentos con el mismo saleDate valor. $out nombra cada archivo utilizando el valor de los documentos, saleDate convertido a una cadena.
Múltiples campos de documentos
Ejemplo
Desea escribir 176 MiB de datos como archivos BSON en un contenedor de Azure Blob Storage my-container llamado.
Usando la siguiente sintaxis $out:
1 { 2 "$out": { 3 "azure": { 4 "serviceURL": "http://mystorageaccount.blob.core.windows.net/", 5 "container": "my-container", 6 "region": "eastus2", 7 "filename": { 8 "$concat": [ 9 "persons/", 10 "$name", "/", 11 "$uniqueId", "/" 12 ] 13 }, 14 "format": { 15 "name": "bson", 16 "maxFileSize": "200MiB" 17 } 18 } 19 } 20 }
$out escribe 176 MiB de datos en archivos BSON.Para nombrar cada archivo, $out concatena:
Una cadena constante
persons/y, de los documentos:El valor de cadena del campo
name,Una barra diagonal (
/),El valor de la cadena del campo
uniqueId, yUna barra diagonal (
/).
Cada archivo BSON contiene todos los documentos con los mismos name uniqueId valores y. $out nombra cada archivo utilizando losname uniqueId valores y de los documentos.
Varios tipos de campos de documentos
Ejemplo
Desea escribir 154 MiB de datos como archivos JSON comprimidos en un contenedor de Azure Blob Storage my-container llamado.
Considere la siguiente sintaxis $out:
1 { 2 "$out": { 3 "azure": { 4 "serviceURL": "http://mystorageaccount.blob.core.windows.net/", 5 "container": "my-container", 6 "region": "eastus2", 7 "filename": { 8 "$concat": [ 9 "big-box-store/", 10 { 11 "$toString": "$storeNumber" 12 }, "/", 13 { 14 "$toString": "$saleDate" 15 }, "/", 16 "$partId", "/" 17 ] 18 }, 19 "format": { 20 "name": "json.gz", 21 "maxFileSize": "200MiB" 22 } 23 } 24 } 25 }
$out escribe 154 MiB de datos en archivos JSON comprimidos, donde cada archivo contiene todos los documentos con los mismos storeNumber saleDate partId valores, y. Para nombrar cada archivo, $out concatena:
Un valor de cadena constante de
big-box-store/,Un valor de cadena de un número de tienda único en el campo
storeNumber,Una barra diagonal (
/),Un valor de cadena de la fecha del campo
saleDate,Una barra diagonal (
/),Un valor de cadena de ID de pieza del campo
partId, yUna barra diagonal (
/).
Crear un nombre de archivo
Los siguientes ejemplos muestran sintaxis $out para crear dinámicamente un nombre de archivo a partir de una cadena constante o de los campos del mismo tipo de datos o de tipos de datos diferentes en los documentos que llegan a la etapa $out.
Ejemplo de cadena simple
Ejemplo
Desea escribir 1 GiB de datos como archivos BSON comprimidos en un depósito de Google Cloud Storage my-gcs-bucket llamado.
Usando la siguiente sintaxis $out:
1 { 2 "$out": { 3 "gcs": { 4 "bucket": "my-gcs-bucket", 5 "filename": "big_box_store/", 6 "format": { 7 "name": "bson.gz" 8 } 9 } 10 } 11 }
Se omite el y,gcs.region por lo tanto, Atlas Data Federation determina la región donde se aloja el depósito llamado a my-gcs-bucket partir de la configuración de almacenamiento. $out escribe cinco archivos BSON comprimidos:
Los primeros 200 MiB de datos a un archivo que $out nombra
big_box_store/1.bson.gz.El valor
gcs.filenamefunciona como constante en cada nombre de archivo. Este valor no depende de ningún campo ni valor del documento.Su
gcs.filenametermina con un delimitador, por lo que Atlas Data Federation agrega el contador después de la constante.Si no terminara con un delimitador, Atlas Data Federation habría agregado un
.entre la constante y el contador, comobig_box_store.1.bson.gzDebido a que no cambió el tamaño máximo de archivo usando
gcs.format.maxFileSize, Atlas Data Federation usa el valor predeterminado de 200 MiB.
El segundo 200 MiB de datos a un nuevo archivo que $out
big_box_store/2.bson.gzllama.Tres archivos más que $out nombran
big_box_store/3.bson.gzbig_box_store/5.bson.gzdel al.
Campo único de documentos
Ejemplo
Desea escribir 90 MiB de datos en archivos JSON en un depósito de Google Cloud Storage my-gcs-bucket llamado.
Usando la siguiente sintaxis $out:
1 { 2 "$out": { 3 "gcs": { 4 "bucket": "my-gcs-bucket", 5 "region": "us-central1", 6 "filename": {"$toString": "$saleDate"}, 7 "format": { 8 "name": "json", 9 "maxFileSize": "100MiB" 10 } 11 } 12 } 13 }
$out escribe 90 MiB de datos en archivos JSON en la raíz del bucket. Cada archivo JSON contiene todos los documentos con el mismo saleDate valor. $out nombra cada archivo utilizando el valor de los documentos, saleDate convertido a una cadena.
Múltiples campos de documentos
Ejemplo
Desea escribir 176 MiB de datos como archivos BSON en un depósito de Google Cloud Storage llamado. my-gcs-bucket
Usando la siguiente sintaxis $out:
1 { 2 "$out": { 3 "gcs": { 4 "bucket": "my-gcs-bucket", 5 "region": "us-central1", 6 "filename": { 7 "$concat": [ 8 "persons/", 9 "$name", "/", 10 "$uniqueId", "/" 11 ] 12 }, 13 "format": { 14 "name": "bson", 15 "maxFileSize": "200MiB" 16 } 17 } 18 } 19 }
$out escribe 176 MiB de datos en archivos BSON.Para nombrar cada archivo, $out concatena:
Una cadena constante
persons/y, de los documentos:El valor de cadena del campo
name,Una barra diagonal (
/),El valor de la cadena del campo
uniqueId, yUna barra diagonal (
/).
Cada archivo BSON contiene todos los documentos con los mismos name uniqueId valores y. $out nombra cada archivo utilizando losname uniqueId valores y de los documentos.
Varios tipos de campos de documentos
Ejemplo
Desea escribir 154 MiB de datos como archivos JSON comprimidos en un depósito de Google Cloud Storage my-gcs-bucket llamado.
Considere la siguiente sintaxis $out:
1 { 2 "$out": { 3 "gcs": { 4 "bucket": "my-gcs-bucket", 5 "region": "us-central1", 6 "filename": { 7 "$concat": [ 8 "big-box-store/", 9 { 10 "$toString": "$storeNumber" 11 }, "/", 12 { 13 "$toString": "$saleDate" 14 }, "/", 15 "$partId", "/" 16 ] 17 }, 18 "format": { 19 "name": "json.gz", 20 "maxFileSize": "200MiB" 21 } 22 } 23 } 24 }
$out escribe 154 MiB de datos en archivos JSON comprimidos, donde cada archivo contiene todos los documentos con los mismos storeNumber saleDate partId valores, y. Para nombrar cada archivo, $out concatena:
Un valor de cadena constante de
big-box-store/,Un valor de cadena de un número de tienda único en el campo
storeNumber,Una barra diagonal (
/),Un valor de cadena de la fecha del campo
saleDate,Una barra diagonal (
/),Un valor de cadena de ID de pieza del campo
partId, yUna barra diagonal (
/).
Escribir en la colección en el clúster Atlas
Esta sintaxis de $out envía los datos agregados a una sampleDB.mySampleData colección en el clúster Atlas myTestCluster denominada. La sintaxis no especifica un ID de proyecto; $out utiliza el ID del proyecto que contiene la instancia de base de datos federada.
Ejemplo
1 { 2 "$out": { 3 "atlas": { 4 "clusterName": "myTestCluster", 5 "db": "sampleDB", 6 "coll": "mySampleData" 7 } 8 } 9 }
Ejecutar una query en segundo plano
El siguiente ejemplo muestra la sintaxis $out para ejecutar una canalización de agregación que finaliza con la etapa $out en segundo plano.
Ejemplo
db.runCommand({ "aggregate": "my-collection", "pipeline": [ { "$out": { "s3": { "bucket": "my-s3-bucket", "filename": { "$toString": "$saleDate" } "format": { "name": "json" } } } } ], { "background" : true } })
$out escribe en archivos JSON en la raíz del bucket en segundo plano. Cada archivo JSON contiene todos los documentos con el mismo saleDate valor. $out nombra cada archivo utilizando el valor de los documentos, saleDate convertido a una cadena.
Ejemplo
db.runCommand({ "aggregate": "my-collection", "pipeline": [ { "$out": { "azure": { "serviceURL": "http://mystorageaccount.blob.core.windows.net/", "container": "my-container", "filename": {"$toString": "$saleDate"}, "format": { "name": "json" } } } } ], { "background" : true } })
$out escribe en archivos JSON en la raíz del contenedor de Azure Blob Storage en segundo plano. Cada archivo JSON contiene todos los documentos con el mismo saleDate valor. $out asigna un nombre a cada archivo utilizando el valor de los documentossaleDate convertido a una cadena.
Ejemplo
db.runCommand({ "aggregate": "my-collection", "pipeline": [ { "$out": { "gcs": { "bucket": "my-gcs-bucket", "filename": { "$toString": "$saleDate" } "format": { "name": "json" } } } } ], { "background" : true } })
$out escribe en archivos JSON en la raíz del bucket en segundo plano. Cada archivo JSON contiene todos los documentos con el mismo saleDate valor. $out nombra cada archivo utilizando el valor de los documentos, saleDate convertido a una cadena.
Ejemplo
db.runCommand({ "aggregate": "my-collection", "pipeline": [ { "$out": { "atlas": { "clusterName": "myTestCluster", "db": "sampleDB", "coll": "mySampleData" } } } ], { background: true } })
$out escribe sampleDB.mySampleData en la colección en el clúster Atlas llamado myTestCluster en segundo plano.
Limitaciones
Tipo de datos de cadena
Atlas Data Federation interpreta las cadenas vacías"" () como null valores al analizar nombres de archivo. Si desea que Atlas Data Federation genere nombres de archivo analizables, envuelva las referencias de campo que podrían tener null valores mediante $convert con un onNull valor de cadena vacía.
Ejemplo
Este ejemplo muestra cómo manejar valores nulos en el campo year al crear un nombre de archivo a partir del valor del campo.
1 { 2 "$out": { 3 "s3": { 4 "bucket": "my-s3-bucket", 5 "region": "us-east-1", 6 "filename": { 7 "$concat": [ 8 "big-box-store/", 9 { 10 "$convert": { 11 "input": "$year", 12 "to": "string", 13 "onNull": "" 14 } 15 }, "/" 16 ] 17 }, 18 "format": { 19 "name": "json.gz", 20 "maxFileSize": "200MiB" 21 } 22 } 23 } 24 }
Número de campos únicos
Al escribir en formato de archivo CSV, TSV o Parquet, Atlas Data Federation no admite más de 32000 campos únicos.
Formato de archivo CSV y TSV
Al escribir en formato CSV o TSV, Atlas Data Federation no admite los siguientes tipos de datos en los documentos:
Arreglos
Puntero de base de datos
JavaScript
Código JavaScript con alcance
Tipo de datos de clave mínimo o máximo
En un archivo CSV, Atlas Data Federation representa los documentos anidados mediante la notación de punto (.). Por ejemplo, Atlas Data Federation escribe { x: { a: 1, b: 2 } } de la siguiente manera en el archivo CSV:
x.a,x.b 1,2
Atlas Data Federation representa todos los demás tipos de datos como cadenas. Por lo tanto, los tipos de datos que MongoDB lee del archivo CSV podrían no coincidir con los tipos de datos de los documentos BSON originales desde los que se escribieron.
Formato de archivo Parquet
Para Parquet, Atlas Data Federation lee los campos con valores nulos o indefinidos como faltantes, ya que Parquet no distingue entre valores nulos o indefinidos y faltantes. Si bien Atlas Data Federation admite todos los tipos de datos, para los tipos de datos BSON que no tienen un equivalente directo en Parquet, como JavaScript, expresiones regulares, etc., realiza lo siguiente:
Elige una representación que permite volver a leer el archivo Parquet resultante mediante una herramienta que no sea MongoDB.
Almacena un esquema MongoDB en los metadatos clave/valor del archivo Parquet para que Atlas Data Federation pueda reconstruir el documento BSON original con los tipos de datos correctos si Atlas Data Federation vuelve a leer el archivo Parquet.
Ejemplo
Considere los siguientes documentos BSON:
{ "clientId": 102, "phoneNumbers": ["123-4567", "234-5678"], "clientInfo": { "name": "Taylor", "occupation": "teacher" } } { "clientId": "237", "phoneNumbers" ["345-6789"] "clientInfo": { "name": "Jordan" } }
Si guardas los documentos BSON mencionados anteriormente en formato Parquet utilizando $out a S3, el esquema del archivo Parquet para los documentos BSON se parecería al siguiente:
message root { optional group clientId { optional int32 int; optional binary string; (STRING) } optional group phoneNumbers (LIST) { repeated group list { optional binary element (STRING); } } optional group clientInfo { optional binary name (STRING); optional binary occupation (STRING); } }
Los datos de Parquet en S3 se verían similares a los siguientes:
1 clientId: 2 .int = 102 3 phoneNumbers: 4 .list: 5 ..element = "123-4567" 6 .list: 7 ..element = "234-5678" 8 clientInfo: 9 .name = "Taylor" 10 .occupation = "teacher" 11 12 clientId: 13 .string = "237" 14 phoneNumbers: 15 .list: 16 ..element = "345-6789" 17 clientInfo: 18 .name = "Jordan"
El ejemplo anterior demuestra cómo Atlas Data Federation maneja tipos de datos complejos:
Atlas Data Federation asigna documentos de todos los niveles a un grupo Parquet.
Atlas Data Federation codifica matrices utilizando el
LISTtipo lógico y la estructura obligatoria de lista o elemento de tres niveles. Para obtener más información, consulte Listas.Atlas Data Federation asigna campos BSON polimórficos a un grupo de varias columnas de un solo tipo, ya que Parquet no admite columnas polimórficas. Atlas Data Federation asigna al grupo el nombre del campo BSON. En el ejemplo anterior, Atlas Data Federation crea un grupo Parquet llamado
clientIdpara el campo polimórficoclientIdcon dos hijos llamados y,intstringrespectivamente.
Tipo de datos de cadena
Atlas Data Federation interpreta las cadenas vacías"" () como null valores al analizar nombres de archivo. Si desea que Atlas Data Federation genere nombres de archivo analizables, envuelva las referencias de campo que podrían tener null valores mediante $convert con un onNull valor de cadena vacía.
Ejemplo
Este ejemplo muestra cómo manejar valores nulos en el campo year al crear un nombre de archivo a partir del valor del campo.
1 { 2 "$out": { 3 "azure": { 4 "serviceURL": "http://mystorageaccount.blob.core.windows.net/", 5 "container": "my-container", 6 "region": "eastus2", 7 "filename": { 8 "$concat": [ 9 "big-box-store/", 10 { 11 "$convert": { 12 "input": "$year", 13 "to": "string", 14 "onNull": "" 15 } 16 }, "/" 17 ] 18 }, 19 "format": { 20 "name": "json.gz", 21 "maxFileSize": "200MiB" 22 } 23 } 24 } 25 }
Número de campos únicos
Al escribir en formato de archivo CSV, TSV o Parquet, Atlas Data Federation no admite más de 32000 campos únicos.
Formato de archivo CSV y TSV
Al escribir en formato CSV o TSV, Atlas Data Federation no admite los siguientes tipos de datos en los documentos:
Arreglos
Puntero de base de datos
JavaScript
Código JavaScript con alcance
Tipo de datos de clave mínimo o máximo
En un archivo CSV, Atlas Data Federation representa los documentos anidados mediante la notación de punto (.). Por ejemplo, Atlas Data Federation escribe { x: { a: 1, b: 2 } } de la siguiente manera en el archivo CSV:
x.a,x.b 1,2
Atlas Data Federation representa todos los demás tipos de datos como cadenas. Por lo tanto, los tipos de datos que MongoDB lee del archivo CSV podrían no coincidir con los tipos de datos de los documentos BSON originales desde los que se escribieron.
Formato de archivo Parquet
Para Parquet, Atlas Data Federation lee los campos con valores nulos o indefinidos como faltantes, ya que Parquet no distingue entre valores nulos o indefinidos y faltantes. Si bien Atlas Data Federation admite todos los tipos de datos, para los tipos de datos BSON que no tienen un equivalente directo en Parquet, como JavaScript, expresiones regulares, etc., realiza lo siguiente:
Elige una representación que permite volver a leer el archivo Parquet resultante mediante una herramienta que no sea MongoDB.
Almacena un esquema MongoDB en los metadatos clave/valor del archivo Parquet para que Atlas Data Federation pueda reconstruir el documento BSON original con los tipos de datos correctos si Atlas Data Federation vuelve a leer el archivo Parquet.
Ejemplo
Considere los siguientes documentos BSON:
{ "clientId": 102, "phoneNumbers": ["123-4567", "234-5678"], "clientInfo": { "name": "Taylor", "occupation": "teacher" } } { "clientId": "237", "phoneNumbers" ["345-6789"] "clientInfo": { "name": "Jordan" } }
Si escribe los documentos BSON anteriores en formato Parquet mediante $out en Azure, el esquema de archivo Parquet para sus documentos BSON se verá similar al siguiente:
message root { optional group clientId { optional int32 int; optional binary string (STRING); } optional group phoneNumbers (LIST) { repeated group list { optional binary element (STRING); } } optional group clientInfo { optional binary name (STRING); optional binary occupation (STRING); } }
Los datos de Parquet en Azure Blob Storage se verían similares a los siguientes:
1 clientId: 2 .int = 102 3 phoneNumbers: 4 .list: 5 ..element = "123-4567" 6 .list: 7 ..element = "234-5678" 8 clientInfo: 9 .name = "Taylor" 10 .occupation = "teacher" 11 12 clientId: 13 .string = "237" 14 phoneNumbers: 15 .list: 16 ..element = "345-6789" 17 clientInfo: 18 .name = "Jordan"
El ejemplo anterior demuestra cómo Atlas Data Federation maneja tipos de datos complejos:
Atlas Data Federation asigna documentos de todos los niveles a un grupo Parquet.
Atlas Data Federation codifica matrices utilizando el
LISTtipo lógico y la estructura obligatoria de lista o elemento de tres niveles. Para obtener más información, consulte Listas.Atlas Data Federation asigna campos BSON polimórficos a un grupo de varias columnas de un solo tipo, ya que Parquet no admite columnas polimórficas. Atlas Data Federation asigna al grupo el nombre del campo BSON. En el ejemplo anterior, Atlas Data Federation crea un grupo Parquet llamado
clientIdpara el campo polimórficoclientIdcon dos hijos llamados y,intstringrespectivamente.
Tipo de datos de cadena
Atlas Data Federation interpreta las cadenas vacías"" () como null valores al analizar nombres de archivo. Si desea que Atlas Data Federation genere nombres de archivo analizables, envuelva las referencias de campo que podrían tener null valores mediante $convert con un onNull valor de cadena vacía.
Ejemplo
Este ejemplo muestra cómo manejar valores nulos en el campo year al crear un nombre de archivo a partir del valor del campo.
1 { 2 "$out": { 3 "gcs": { 4 "bucket": "my-gcs-bucket", 5 "region": "us-central1", 6 "filename": { 7 "$concat": [ 8 "big-box-store/", 9 { 10 "$convert": { 11 "input": "$year", 12 "to": "string", 13 "onNull": "" 14 } 15 }, "/" 16 ] 17 }, 18 "format": { 19 "name": "json.gz", 20 "maxFileSize": "200MiB" 21 } 22 } 23 } 24 }
Número de campos únicos
Al escribir en formato de archivo CSV, TSV o Parquet, Atlas Data Federation no admite más de 32000 campos únicos.
Formato de archivo CSV y TSV
Al escribir en formato CSV o TSV, Atlas Data Federation no admite los siguientes tipos de datos en los documentos:
Arreglos
Puntero de base de datos
JavaScript
Código JavaScript con alcance
Tipo de datos de clave mínimo o máximo
En un archivo CSV, Atlas Data Federation representa los documentos anidados mediante la notación de punto (.). Por ejemplo, Atlas Data Federation escribe { x: { a: 1, b: 2 } } de la siguiente manera en el archivo CSV:
x.a,x.b 1,2
Atlas Data Federation representa todos los demás tipos de datos como cadenas. Por lo tanto, los tipos de datos que MongoDB lee del archivo CSV podrían no coincidir con los tipos de datos de los documentos BSON originales desde los que se escribieron.
Formato de archivo Parquet
Para Parquet, Atlas Data Federation lee los campos con valores nulos o indefinidos como faltantes, ya que Parquet no distingue entre valores nulos o indefinidos y faltantes. Si bien Atlas Data Federation admite todos los tipos de datos, para los tipos de datos BSON que no tienen un equivalente directo en Parquet, como JavaScript, expresiones regulares, etc., realiza lo siguiente:
Elige una representación que permite volver a leer el archivo Parquet resultante mediante una herramienta que no sea MongoDB.
Almacena un esquema MongoDB en los metadatos clave/valor del archivo Parquet para que Atlas Data Federation pueda reconstruir el documento BSON original con los tipos de datos correctos si Atlas Data Federation vuelve a leer el archivo Parquet.
Ejemplo
Considere los siguientes documentos BSON:
{ "clientId": 102, "phoneNumbers": ["123-4567", "234-5678"], "clientInfo": { "name": "Taylor", "occupation": "teacher" } } { "clientId": "237", "phoneNumbers" ["345-6789"] "clientInfo": { "name": "Jordan" } }
Si escribe los documentos BSON anteriores en formato Parquet usando $out en GCP, el esquema de archivo Parquet para sus documentos BSON se verá similar al siguiente:
message root { optional group clientId { optional int32 int; optional binary string; (STRING) } optional group phoneNumbers (LIST) { repeated group list { optional binary element (STRING); } } optional group clientInfo { optional binary name (STRING); optional binary occupation (STRING); } }
Sus datos de Parquet en Google Cloud Storage se verían similares a los siguientes:
1 clientId: 2 .int = 102 3 phoneNumbers: 4 .list: 5 ..element = "123-4567" 6 .list: 7 ..element = "234-5678" 8 clientInfo: 9 .name = "Taylor" 10 .occupation = "teacher" 11 12 clientId: 13 .string = "237" 14 phoneNumbers: 15 .list: 16 ..element = "345-6789" 17 clientInfo: 18 .name = "Jordan"
El ejemplo anterior demuestra cómo Atlas Data Federation maneja tipos de datos complejos:
Atlas Data Federation asigna documentos de todos los niveles a un grupo Parquet.
Atlas Data Federation codifica matrices utilizando el
LISTtipo lógico y la estructura obligatoria de lista o elemento de tres niveles. Para obtener más información, consulte Listas.Atlas Data Federation asigna campos BSON polimórficos a un grupo de varias columnas de un solo tipo, ya que Parquet no admite columnas polimórficas. Atlas Data Federation asigna al grupo el nombre del campo BSON. En el ejemplo anterior, Atlas Data Federation crea un grupo Parquet llamado
clientIdpara el campo polimórficoclientIdcon dos hijos llamados y,intstringrespectivamente.
Esta sección se aplica únicamente a las ofertas de almacenamiento de proveedores de servicios en la nube.
Salida de error
Atlas Data Federation utiliza el mecanismo de manejo de errores que se describe a continuación para los documentos que ingresan a la etapa y no se pueden escribir por una de las siguientes $out razones:
El
s3.filenameno evalúa un valor de cadena.El
s3.filenamese evalúa como un archivo en el que no se puede escribir.El valor se establece
s3.format.namecsvtsven,,csv.gzo,tsv.gzy el documento transferido a contiene tipos de datos no compatibles con el formato de archivo especificado. Para obtener una lista completa de los tipos de datos no compatibles,$outconsulte Formatos de archivo CSV y TSV.
Si encuentra uno de los errores anteriores al procesar un documento, Atlas Data Federation escribe en los siguientes tres archivos de error especiales en $out la s3://<bucket-name>/atlas-data-lake-<correlation-id>/ ruta:
Nombre del archivo de error | Descripción |
|---|---|
out-error-docs/<i>.json | Atlas Data Federation escribe el documento que encontró un error en este archivo. |
out-error-index/<i>.json | Atlas Data Federation guarda un mensaje de error en este archivo. Cada mensaje de error contiene una descripción del error y un valor de índice |
resumen-de-errores-de-salida.json | Atlas Data Federation crea un único documento de resumen para cada tipo de error detectado durante una operación de agregación en este archivo. Cada documento de resumen contiene una descripción del tipo de error y un recuento del número de documentos que lo detectaron. |
Ejemplo
Este ejemplo muestra cómo generar archivos de error utilizando en una instancia de base de datos $out federada.
La siguiente secuencia de agregación ordena los documentos en la colección de datos de analytics.customers muestra en orden descendente de la fecha de nacimiento del cliente e intenta escribir los _id campos, name y accounts de los tres clientes más jóvenes youngest-customers.csv en el archivo llamado en el depósito S3 customer-data llamado.
db.customers.aggregate([ { $sort: { "birthdate" : -1 } }, { $unset: [ "username", "address", "email", "tier_and_details", "birthdate" ] }, { $limit: 3 }, { $out: { "s3": { "bucket": "customer-data", "filename": "youngest-customers", "region":"us-east-2", "format": { "name": "csv" } } } ])
Dado que accounts es un campo de matriz, encuentra un error al intentar escribir un$out documento s3.format.name csv en. Para gestionar estos errores, Atlas Data Federation escribe en los siguientes tres archivos de errores:
La siguiente salida muestra el primero de los tres documentos escritos en el archivo
out-error-docs/1.json:s3://datos-del-cliente/atlas-data-lake-1773b3d5e2a7f3858530daf5/out-error-docs/1.json{ "_id" : {"$oid":"5ca4bbcea2dd94ee58162ba7"}, "name": "Marc Cain", "accounts": [{"$numberInt":"980440"}, {"$numberInt":"626807"}, {"$numberInt":"313907"}, {"$numberInt":"218101"}, {"$numberInt":"157495"}, {"$numberInt":"736396"}], } La siguiente salida muestra el primero de tres mensajes de error escritos en el archivo
out-error-index/1.json. El camponcomienza en 0 y se incrementa con cada error escrito en el archivo.s3://datos-del-cliente/atlas-data-lake-1773b3d5e2a7f3858530daf5/índice-de-error-de-salida/1.json{ "n" : {"$numberInt": "0"}, "error" : "field accounts is of unsupported type array" } La siguiente salida muestra el documento de resumen de errores escrito en el
out-error-summaryarchivo. Elcountcampo representa el número de documentos pasados a que encontraron un error debido$outalaccountscampo de matriz.s3://customer-data/atlas-data-lake-1773b3d5e2a7f3858530daf5/out-error-summary.json{ "errorType": "field accounts is of unsupported type array", "count": {"$numberInt":"3"} }
Atlas Data Federation utiliza el mecanismo de manejo de errores que se describe a continuación para los documentos que ingresan a la etapa y no se pueden escribir por una de las siguientes $out razones:
El
azure.filenameno evalúa un valor de cadena.El
azure.filenamese evalúa como un archivo en el que no se puede escribir.El valor se establece
azure.format.namecsvtsven,,csv.gzo,tsv.gzy el documento transferido a contiene tipos de datos no compatibles con el formato de archivo especificado. Para obtener una lista completa de los tipos de datos no compatibles,$outconsulte Formatos de archivo CSV y TSV.
Si encuentra uno de los errores anteriores al procesar un documento, Atlas Data Federation escribe en los siguientes tres archivos de error especiales en $out la http://<storage-account>.blob.core.windows.net/<container-name>/atlas-data-lake-<correlation-id>/ ruta:
Nombre del archivo de error | Descripción |
|---|---|
out-error-docs/<i>.json | Atlas Data Federation escribe el documento que encontró un error en este archivo.
|
out-error-index/<i>.json | Atlas Data Federation escribe un mensaje de error en este archivo. Cada mensaje de error contiene una descripción del error y un valor de índice
|
resumen-de-errores-de-salida.json | Atlas Data Federation crea un único documento de resumen para cada tipo de error detectado durante una operación de agregación en este archivo. Cada documento de resumen contiene una descripción del tipo de error y un recuento del número de documentos que lo detectaron. |
Ejemplo
Este ejemplo muestra cómo generar archivos de error utilizando en una instancia de base de datos $out federada.
La siguiente canalización de agregación ordena los documentos en la colección de conjuntos de datos de analytics.customers muestra en orden descendente de la fecha de nacimiento del cliente e intenta escribir los _id campos, name y accounts de los tres clientes más jóvenes en el archivo youngest-customers.csv denominado en el contenedor de Azure Blob Storage customer-data denominado.
db.customers.aggregate([ { $sort: { "birthdate" : -1 } }, { $unset: [ "username", "address", "email", "tier_and_details", "birthdate" ] }, { $limit: 3 }, { $out: { "azure": { "serviceURL": "https://myserviceaccount.blob.core.windows.net" "container": "customer-data", "filename": "youngest-customers", "region":"eastus2", "format": { "name": "csv" } } } ])
Dado que accounts es un campo de matriz, encuentra un error al intentar escribir un$out documento azure.format.name csv en. Para gestionar estos errores, Atlas Data Federation escribe en los siguientes tres archivos de errores:
La siguiente salida muestra el primero de los tres documentos escritos en el archivo
out-error-docs/1.json:http://mystorageaccount.blob.core.windows.net/customer-data/atlas-data-lake-1773b3d5e2a7f3858530daf5/out-error-docs/1.json{ "_id" : {"$oid":"5ca4bbcea2dd94ee58162ba7"}, "name": "Marc Cain", "accounts": [{"$numberInt":"980440"}, {"$numberInt":"626807"}, {"$numberInt":"313907"}, {"$numberInt":"218101"}, {"$numberInt":"157495"}, {"$numberInt":"736396"}], } La siguiente salida muestra el primero de tres mensajes de error escritos en el archivo
out-error-index/1.json. El camponcomienza en 0 y se incrementa con cada error escrito en el archivo.http://mystorageaccount.blob.core.windows.net/customer-data/atlas-data-lake-1773b3d5e2a7f3858530daf5/out-error-index/1.json{ "n" : {"$numberInt": "0"}, "error" : "field accounts is of unsupported type array" } La siguiente salida muestra el documento de resumen de errores escrito en el
out-error-summaryarchivo. Elcountcampo representa el número de documentos pasados a que encontraron un error debido$outalaccountscampo de matriz.http://mystorageaccount.blob.core.windows.net/customer-data/atlas-data-lake-1773b3d5e2a7f3858530daf5/out-error-summary.json{ "errorType": "field accounts is of unsupported type array", "count": {"$numberInt":"3"} }
Atlas Data Federation utiliza el mecanismo de manejo de errores que se describe a continuación para los documentos que ingresan a la etapa y no se pueden escribir por una de las siguientes $out razones:
El
gcs.filenameno evalúa un valor de cadena.El
gcs.filenamese evalúa como un archivo en el que no se puede escribir.El valor se establece
gcs.format.namecsvtsven,,csv.gzo,tsv.gzy el documento transferido a contiene tipos de datos no compatibles con el formato de archivo especificado. Para obtener una lista completa de los tipos de datos no compatibles,$outconsulte Formatos de archivo CSV y TSV.
Si encuentra uno de los errores anteriores al procesar un documento, Atlas Data Federation escribe en los siguientes tres archivos de error especiales en $out la gcs://<bucket-name>/atlas-data-lake-<correlation-id>/ ruta:
Nombre del archivo de error | Descripción |
|---|---|
out-error-docs/<i>.json | Atlas Data Federation escribe el documento que encontró un error en este archivo. |
out-error-index/<i>.json | Atlas Data Federation guarda un mensaje de error en este archivo. Cada mensaje de error contiene una descripción del error y un valor de índice |
resumen-de-errores-de-salida.json | Atlas Data Federation crea un único documento de resumen para cada tipo de error detectado durante una operación de agregación en este archivo. Cada documento de resumen contiene una descripción del tipo de error y un recuento del número de documentos que lo detectaron. |
Ejemplo
Este ejemplo muestra cómo generar archivos de error utilizando en una instancia de base de datos $out federada.
La siguiente secuencia de agregación ordena los documentos en la colección de datos de muestra analytics.customers en orden descendente de la fecha de nacimiento del cliente e intenta escribir los campos _id, name y accounts de los tres clientes más jóvenes en el archivo llamado youngest-customers.csv en el depósito de Google Cloud Storage llamado customer-data.
db.customers.aggregate([ { $sort: { "birthdate" : -1 } }, { $unset: [ "username", "address", "email", "tier_and_details", "birthdate" ] }, { $limit: 3 }, { $out: { "gcs": { "bucket": "customer-data", "filename": "youngest-customers", "region":"us-central1", "format": { "name": "csv" } } } ])
Dado que accounts es un campo de matriz, encuentra un error al intentar escribir un$out documento gcs.format.name csv en. Para gestionar estos errores, Atlas Data Federation escribe en los siguientes tres archivos de errores:
La siguiente salida muestra el primero de los tres documentos escritos en el archivo
out-error-docs/1.json:gcs://datos-del-cliente/atlas-data-lake-1773b3d5e2a7f3858530daf5/out-error-docs/1.json{ "_id" : {"$oid":"5ca4bbcea2dd94ee58162ba7"}, "name": "Marc Cain", "accounts": [{"$numberInt":"980440"}, {"$numberInt":"626807"}, {"$numberInt":"313907"}, {"$numberInt":"218101"}, {"$numberInt":"157495"}, {"$numberInt":"736396"}], } La siguiente salida muestra el primero de tres mensajes de error escritos en el archivo
out-error-index/1.json. El camponcomienza en 0 y se incrementa con cada error escrito en el archivo.gcs://datos-del-cliente/atlas-data-lake-1773b3d5e2a7f3858530daf5/out-error-index/1.json{ "n" : {"$numberInt": "0"}, "error" : "field accounts is of unsupported type array" } La siguiente salida muestra el documento de resumen de errores escrito en el
out-error-summaryarchivo. Elcountcampo representa el número de documentos pasados a que encontraron un error debido$outalaccountscampo de matriz.gcs://datos-del-cliente/atlas-data-lake-1773b3d5e2a7f3858530daf5/resumen-de-errores-de-salida.json{ "errorType": "field accounts is of unsupported type array", "count": {"$numberInt":"3"} }
Esta sección se aplica únicamente al almacenamiento del proveedor de servicios en la nube.