Definición
serverStatusEl
serverStatusEl comando devuelve un documento que proporciona una descripción general del estado de la base de datos. Las aplicaciones de monitorización pueden ejecutar este comando periódicamente para recopilar estadísticas sobre la instancia.
Compatibilidad
Este comando está disponible en implementaciones alojadas en los siguientes entornos:
MongoDB Atlas: El servicio totalmente gestionado para implementaciones de MongoDB en la nube
Nota
Este comando es compatible con todos los clústeres de MongoDB Atlas. Para obtener información sobre el soporte de Atlas para todos los comandos, consulte Comandos no compatibles.
MongoDB Enterprise: La versión basada en suscripción y autogestionada de MongoDB
MongoDB Community: La versión de MongoDB con código fuente disponible, de uso gratuito y autogestionada.
Sintaxis
El comando tiene la siguiente sintaxis:
db.runCommand( { serverStatus: 1 } )
El valor (es decir, 1 anterior) no afecta la operación del comando. El comando db.serverStatus() devuelve una gran cantidad de datos. Para devolver un objeto o campo específico en el resultado, agregue el nombre del objeto o del campo al comando.
Por ejemplo:
db.runCommand({ serverStatus: 1}).metrics db.runCommand({ serverStatus: 1}).metrics.commands db.runCommand({ serverStatus: 1}).metrics.commands.update
mongosh proporciona el contenedor db.serverStatus() para el comando serverStatus.
Tip
Gran parte de la salida de serverStatus también se muestra dinámicamente por mongostat. Vea el comando mongostat para más información.
Comportamiento
Por defecto, serverStatus excluye en su salida:
algunos contenidos en el documento repl.
Documento mirroredReads.
Para incluir los campos que están excluidos por defecto, especifique el campo de nivel superior y configúrelo como 1 en el comando. Para excluir campos que se incluyen por defecto, especifique el campo y configúrelo en 0. Puede especificar campos de nivel superior o campos incrustados.
Por ejemplo, la siguiente operación excluye la información de repl, metrics y locks en el resultado.
db.runCommand( { serverStatus: 1, repl: 0, metrics: 0, locks: 0 } )
Por ejemplo, la siguiente operación excluye el campo integrado histogram en el resultado.
db.runCommand( { serverStatus: 1, metrics: { query: { multiPlanner: { histograms: false } } } } )
El siguiente ejemplo incluye toda la información de repl en el resultado:
db.runCommand( { serverStatus: 1, repl: 1 } )
Inicialización
Las estadísticas reportadas por serverStatus se restablecen cuando se reinicia el servidor mongod.
Este comando siempre devolverá un valor, incluso en una base de datos recién creada. El comando relacionado db.serverStatus() no siempre devuelve un valor, a menos que un contador haya comenzado a incrementarse para una métrica específica.
Después de Ejecutar una query de actualización, db.serverStatus() y db.runCommand({ serverStatus: 1}) devuelven los mismos valores.
{ arrayFilters : Long("0"), failed : Long("0"), pipeline : Long("0"), total : Long("1") }
Incluir latchAnalysis
Por defecto, la latchAnalysis información no se incluye en la salida. Para devolver la información de latchAnalysis, debes especificar explícitamente la inclusión:
db.runCommand( { serverStatus: 1, latchAnalysis: 1 } )
tcmalloc Cambiar Verbosidad
De forma predeterminada, la información tcmalloc se incluye en la salida. Esta sección proporciona estadísticas de asignación de memoria para su base de datos. Para cambiar el nivel de detalle de la sección tcmalloc, especifique un entero entre 0 y 2 (inclusive):
db.runCommand( { serverStatus: 1, tcmalloc: <int> } )
El comando tiene el siguiente comportamiento:
De forma predeterminada,
tcmallocse establece en1.Pasar un valor entero mayor aumenta la verbosidad.
Pasar
0ofalseomite la seccióntcmallocde la salida.Al pasar cualquier otra entrada se obtendrá la configuración predeterminada.
Para obtener más información sobre cómo MongoDB asigna memoria,consulte TCMalloc.
Salida
Nota
Los campos de salida varían según la versión de MongoDB, la plataforma del sistema operativo subyacente, el motor de almacenamiento y el tipo de nodo, que incluye mongos, mongod o un miembro de un set de réplicas.
Para la salida de serverStatus específica de la versión de su MongoDB, consulta la versión adecuada del Manual de MongoDB.
afirma
asserts : { regular : <num>, warning : <num>, msg : <num>, user : <num>, rollovers : <num> },
assertsUn documento que informa sobre el número de aserciones generadas desde que se inició el proceso de MongoDB. Las aserciones son comprobaciones internas de errores que ocurren mientras la base de datos está en funcionamiento y pueden ayudar a diagnosticar problemas con el servidor de MongoDB. Los valores de aserciones distintos de cero indican errores de aserción, que son poco comunes y no son motivo inmediato de preocupación. Los errores que generan aserciones pueden registrarse en la entrada de registro o devolverse directamente a una aplicación cliente para obtener más información.
asserts.regularEl número de afirmaciones regulares planteadas desde que se inició el proceso de MongoDB. Examina el registro de MongoDB para obtener más información.
asserts.msgEl número de aserciones de mensajes generadas desde que se inició el proceso de MongoDB. Examine la entrada de registro para obtener más información sobre estos mensajes.
asserts.userEl número de "aserciones del usuario" que han ocurrido desde la última vez que se inició el proceso de MongoDB. Estos son errores que el usuario puede generar, como falta de espacio en disco o clave duplicada. Se puede evitar estas afirmaciones corrigiendo un problema con la aplicación o implementación. Los registros del servidor pueden tener información limitada sobre las "aserciones del usuario". Para obtener más información sobre el origen de las "aserciones del usuario", se deben consultar los registros de la aplicación para detectar errores en la aplicación.
asserts.rolloversEl número de veces que los contadores de aserción se han reiniciado desde la última vez que se inició el proceso de MongoDB. Los contadores se reiniciarán a cero después de 2 30 aserciones. Utiliza este valor para proporcionar contexto a los otros valores en la estructura de datos
asserts.
Eliminaciones por lotes
batchedDeletes: { batches: <num>, docs: <num>, stagedSizeBytes: <num>, timeInBatchMillis: <num>, refetchesDueToYield: <num> },
Un documento que informa las métricas relacionadas con todas las eliminaciones por lotes.
El batchedDeletes devuelve las siguientes métricas:
Métrica | Descripción |
|---|---|
| |
| |
| |
| |
|
bucketCatalog
bucketCatalog : { numBuckets : <num>, numOpenBuckets : <num>, numIdleBuckets : <num>, memoryUsage : <num> }
Un documento que informa sobre métricas relacionadas con el almacenamiento interno de colecciones de series de tiempo.
El bucketCatalog devuelve las siguientes métricas:
Métrica | Descripción |
|---|---|
| La cantidad de contenedores que almacenan datos de series temporales internamente. |
| La cantidad de escrituras activas y no confirmadas en los depósitos. |
| La cantidad de depósitos que no están llenos y pueden almacenar datos de series de tiempo entrantes. |
| El número de bytes utilizados por las estructuras de datos internas de buckets. |
Nuevo en la versión 5.0.
También puede usar la etapa del pipeline de agregación de datos $collStats para encontrar métricas de serie de tiempo. Para aprender más, consulte Resultado de storageStats en colecciones de series de tiempo.
catalogStats
Nuevo en la versión 5.1.
catalogStats: { collections: <num>, capped: <num>, views: <num>, timeseries: <num>, internalCollections: <num>, internalViews: <num>, systemProfile: <num> }
catalogStatsUn documento que informa estadísticas sobre el uso de la colección mediante el recuento de colecciones.
catalogStats.collectionsEl número total de colecciones de usuario (sin incluir las colecciones del sistema).
catalogStats.internalCollectionsEl número total de colecciones del sistema (colecciones en las bases de datos de
config,adminolocal).
catalogStats.internalViewsEl número total de vistas de las colecciones del sistema (colecciones en las bases de datos
config,adminolocal).
catalogStats.systemProfileEl número total de colecciones de
profileen todas las bases de datos.
Conexiones
connections : { current : <num>, available : <num>, totalCreated : <num>, rejected : <num>, // Added in MongoDB 6.3 active : <num>, threaded : <num>, exhaustIsMaster : <num>, exhaustHello : <num>, awaitingTopologyChanges : <num>, loadBalanced : <num> },
connectionsUn documento que informa sobre el estado de las conexiones. Utilice estos valores para evaluar los requisitos actuales de carga y capacidad del servidor.
connections.currentEl número de conexiones entrantes desde los clientes al servidor de bases de datos. Este número incluye la sesión actual de shell. Considera el valor de
connections.availablepara añadir más contexto a este dato.El valor incluirá todas las conexiones entrantes, incluidas las conexiones shell o conexiones de otros servidores, como los miembros del Set de réplicas o las instancias de
mongos.
connections.availableEl número de conexiones entrantes disponibles no utilizadas. Considera este valor en combinación con el valor de
connections.currentpara entender la carga de conexión en la base de datos. Consulta el documento Configuración de UNIXulimitpara la implementaciones autogestionadas para obtener más información sobre los umbrales del sistema en las conexiones disponibles.
connections.totalCreatedRecuento de todas las conexiones entrantes al servidor que se crearon. Este número incluye conexiones que se han cerrado desde entonces.
connections.rejectedNuevo en la versión 6.3.
La cantidad de conexiones entrantes que el servidor rechazó porque no tiene la capacidad para aceptar conexiones adicionales o se ha alcanzado la configuración de
net.maxIncomingConnections.
connections.activeLa cantidad de conexiones activas de clientes al servidor. Las conexiones activas de clientes se refieren a aquellas que actualmente tienen operaciones en curso.
connections.threadedLa cantidad de conexiones entrantes de clientes que se asignan a los subprocesos que atienden las solicitudes de los clientes.
Nuevo en la versión 5.0.
connections.exhaustIsMasterLa cantidad de conexiones cuya última solicitud fue una solicitud
isMastercon exhaustAllowed.Nota
Si está ejecutando MongoDB 5.0 o posterior, no use el comando
isMaster. En cambio, usehello.
connections.exhaustHelloLa cantidad de conexiones cuya última solicitud fue una solicitud
hellocon exhaustAllowed.Nuevo en la versión 5.0.
defaultRWConcern
La sección defaultRWConcern proporciona información sobre la copia local de la configuración global por defecto de los niveles de consistencia de lectura o de los niveles de confirmación de escritura (write concern). Los datos pueden estar obsoletos o desactualizados. Consulte getDefaultRWConcern para obtener más información.
defaultRWConcern : { defaultReadConcern : { level : <string> }, defaultWriteConcern : { w : <string> | <int>, wtimeout : <int>, j : <bool> }, defaultWriteConcernSource: <string>, defaultReadConcernSource: <string>, updateOpTime : Timestamp, updateWallClockTime : Date, localUpdateWallClockTime : Date }
defaultRWConcernLa última configuración global por defecto conocida de los niveles de consistencia de lectura o de confirmación de escritura (write concern).
defaultRWConcern.defaultReadConcernLa última configuración global por defecto conocida del nivel de consistencia de lectura.
Si
serverStatusno devuelve este campo, el nivel de consistencia de lectura global por defecto no se ha establecido o aún no se ha propagado a la instancia.
defaultRWConcern.defaultReadConcern.levelLa última configuración global por defecto conocida del nivel de consistencia de lectura.
Si
serverStatusno devuelve este campo, el valor global por defecto para esta configuración no se ha establecido o aún no se ha propagado a la instancia.
defaultRWConcern.defaultWriteConcernLa última configuración global por defecto conocida del nivel de confirmación de escritura (write concern).
Si
serverStatusno devuelve este campo, el nivel de confirmación de escritura global por defecto no se ha establecido o aún no se ha propagado a la instancia.
defaultRWConcern.defaultWriteConcern.wLa última configuración global por defecto conocida w.
Si
serverStatusno devuelve este campo, el valor global por defecto para esta configuración no se ha establecido o aún no se ha propagado a la instancia.
defaultRWConcern.defaultWriteConcern.wtimeoutLa última configuración global por defecto conocida wtimeout.
Si
serverStatusno devuelve este campo, el valor global por defecto para esta configuración no se ha establecido o aún no se ha propagado a la instancia.
defaultRWConcern.defaultWriteConcernSourceEl origen del nivel de confirmación de escritura (write concern) por defecto. Por defecto, el valor es
"implicit". Una vez que establezca el nivel de confirmación de escritura (write concern) por defecto consetDefaultRWConcern, el valor se convierte en"global".Nuevo en la versión 5.0.
defaultRWConcern.defaultReadConcernSourceEl origen del nivel de consistencia de lectura por defecto. Por defecto, el valor es
"implicit". Una vez que establezca el nivel de consistencia de lectura por defecto consetDefaultRWConcern, el valor se convierte en"global".Nuevo en la versión 5.0.
defaultRWConcern.updateOpTimeLa marca de tiempo cuando la instancia actualizó por última vez su copia de cualquier configuración global de lectura o de nivel de confirmación de escritura. Si faltan los campos
defaultRWConcern.defaultReadConcernydefaultRWConcern.defaultWriteConcern, este campo indica la marca de tiempo cuando los valores por defecto se desactivaron por última vez.
defaultRWConcern.updateWallClockTimeEl tiempo de reloj en el que la instancia actualizó por última vez su copia de cualquier configuración global de nivel de consistencia de lectura o de nivel de confirmación de escritura (write concern). Si los campos
defaultRWConcern.defaultReadConcernydefaultRWConcern.defaultWriteConcernfaltan, este campo indica el tiempo en que los valores por defecto se desactivaron por última vez.
defaultRWConcern.localUpdateWallClockTimeLa hora de reloj del sistema local cuando la instancia actualizó por última vez su copia de cualquier configuración global de nivel de consistencia de lectura o de nivel de confirmación de escritura (write concern). Si este campo es el único campo en
defaultRWConcern, la instancia nunca ha tenido conocimiento de una configuración global por defecto de nivel de consistencia de lectura o de nivel de confirmación de escritura (write concern).
electionMetrics
La sección electionMetrics proporciona información sobre las elecciones convocadas por esta instancia mongod en un intento de convertirse en la primaria:
electionMetrics : { stepUpCmd : { called : Long("<num>"), successful : Long("<num>") }, priorityTakeover : { called : Long("<num>"), successful : Long("<num>") }, catchUpTakeover : { called : Long("<num>"), successful : Long("<num>") }, electionTimeout : { called : Long("<num>"), successful : Long("<num>") }, freezeTimeout : { called : Long("<num>"), successful : Long("<num>") }, numStepDownsCausedByHigherTerm : Long("<num>"), numCatchUps : Long("<num>"), numCatchUpsSucceeded : Long("<num>"), numCatchUpsAlreadyCaughtUp : Long("<num>"), numCatchUpsSkipped : Long("<num>"), numCatchUpsTimedOut : Long("<num>"), numCatchUpsFailedWithError : Long("<num>"), numCatchUpsFailedWithNewTerm : Long("<num>"), numCatchUpsFailedWithReplSetAbortPrimaryCatchUpCmd : Long("<num>"), averageCatchUpOps : <double> }
electionMetrics.stepUpCmdMétricas sobre las elecciones que fueron convocadas por la instancia
mongodcomo parte de un traspaso de elección cuando la primaria se retiró.El
stepUpCmdincluye tanto el número de elecciones convocadas como el número de elecciones que se completaron con éxito.
electionMetrics.priorityTakeoverMétricas sobre las elecciones que fueron convocadas por la instancia
mongodporque supriorityes superior al de la primaria.El
electionMetrics.priorityTakeoverincluye tanto el número de elecciones convocadas como el número de elecciones que se completaron con éxito.
electionMetrics.catchUpTakeoverMétricas sobre elecciones convocadas por la instancia
mongodporque es más reciente que la primaria.El
catchUpTakeoverincluye tanto el número de elecciones convocadas como el número de elecciones que se completaron con éxito.
electionMetrics.electionTimeoutMétricas sobre elecciones convocadas por la instancia
mongodporque no ha podido alcanzar la primaria ensettings.electionTimeoutMillis.El
electionTimeoutincluye tanto el número de elecciones convocadas como el número de elecciones que se completaron con éxito.
electionMetrics.freezeTimeoutMétricas sobre las elecciones convocadas por la instancia
mongoddespués de que sufreeze period(durante el cual el nodo no puede solicitar una elección) haya caducado.El
electionMetrics.freezeTimeoutincluye tanto el número de elecciones convocadas como el número de elecciones que se completaron con éxito.
electionMetrics.numStepDownsCausedByHigherTermCantidad de veces que la instancia
mongodse retiró porque detectó un término más alto (específicamente, otros nodos participaron en elecciones adicionales).
electionMetrics.numCatchUpsCantidad de elecciones en las que la instancia
mongodcomo la primaria recién elegida tuvo que sincronizarse con la entrada de oplog más alta conocida.
electionMetrics.numCatchUpsSucceededCantidad de veces que la instancia
mongodcomo la primaria recién elegida logró ponerse al día con la entrada de oplog más alta conocida.
electionMetrics.numCatchUpsAlreadyCaughtUpCantidad de veces que la instancia
mongodcomo la primaria recién elegida concluyó su proceso de sincronización porque ya estaba sincronizada en el momento de la elección.
electionMetrics.numCatchUpsSkippedCantidad de veces que la instancia
mongodcomo la primaria recién elegida omitió el proceso de sincronización.
electionMetrics.numCatchUpsTimedOutCantidad de veces que la instancia
mongodcomo la primaria recién elegida concluyó su proceso de sincronización debido al límite desettings.catchUpTimeoutMillis.
electionMetrics.numCatchUpsFailedWithErrorCantidad de veces que el proceso de sincronización de la primaria recién elegido falló con un error.
electionMetrics.numCatchUpsFailedWithNewTermCantidad de veces que el proceso de sincronización de la primaria recién elegida concluyó porque otro(s) nodo(s) tenía(n) un término más alto (específicamente, otros nodos participaron en elecciones adicionales).
electionMetrics.numCatchUpsFailedWithReplSetAbortPrimaryCatchUpCmdCantidad de veces que el proceso de sincronización de la primaria recién elegida concluyó porque el
mongodrecibió el comandoreplSetAbortPrimaryCatchUp.
extra_info
extra_info : { note : 'fields vary by platform', page_faults : <num> },
extra_info.page_faultsEl número total de fallos de página. El
extra_info.page_faultscontador puede aumentar drásticamente durante los momentos de bajo rendimiento y puede correlacionarse con entornos de memoria limitados y conjuntos de datos más grandes. Las fallas de página limitadas y esporádicas no necesariamente indican un problema.Windows diferencia los fallos de página "duros" que implican E/S de disco de los fallos de página "blandos" que solo requieren mover páginas en la memoria. MongoDB cuenta tanto los fallos de página duros como los blandos en esta estadística.
flowControl
flowControl : { enabled : <boolean>, targetRateLimit : <int>, timeAcquiringMicros : Long("<num>"), locksPerKiloOp : <double>, sustainerRate : <int>, isLagged : <boolean>, isLaggedCount : <int>, isLaggedTimeMicros : Long("<num>") },
flowControlUn documento que proporciona estadísticas sobre el control de flujo. Con el control de flujo activado, a medida que el desfase del punto
majority commitse acerca alflowControlTargetLagSeconds, las escrituras en la primaria deben obtener tickets antes de tomar bloqueos. Por lo tanto, las métricas devueltas son significativas cuando se ejecutan en la primaria.
flowControl.enabledUn operador booleano que indica si Control de flujo está activado (
true) o desactivado (false).Consulte también
enableFlowControl.
flowControl.targetRateLimitCuando se ejecuta en la primaria, la cantidad máxima de tickets que se pueden adquirir por segundo.
Cuando se ejecuta en una secundaria, el número devuelto es un marcador de posición.
flowControl.timeAcquiringMicrosCuando se ejecuta en la primaria, el tiempo total que las operaciones de guardado han esperado para adquirir un ticket.
Cuando se ejecuta en una secundaria, el número devuelto es un marcador de posición.
flowControl.locksPerKiloOpCuando se ejecuta en la primaria, una aproximación del número de bloqueos tomados por cada 1000 operaciones.
Cuando se ejecuta en una secundaria, el número devuelto es un marcador de posición.
flowControl.sustainerRateCuando se ejecuta en la primaria, una aproximación de las operaciones aplicadas por segundo por la secundaria que sostiene el punto de confirmación.
Cuando se ejecuta en una secundaria, el número devuelto es un marcador de posición.
flowControl.isLaggedCuando se ejecuta en la primaria, un operador booleano que indica si el control de flujo se ha activado. El control de flujo se activa cuando el retraso comprometido de la mayoría es superior a un cierto porcentaje del
flowControlTargetLagSecondsconfigurado.El Atraso de la replicación puede ocurrir sin activar el control de flujo. Un secundario que no responda podría retrasarse sin que el Set de réplicas reciba carga suficiente para activar el control de flujo, dejando el valor de
flowControl.isLaggedenfalse.Para obtener información adicional, consulte Control de flujo.
flowControl.isLaggedCountCuando se ejecuta en una primaria, la cantidad de veces que el control de flujo se ha activado desde el último reinicio. El control de flujo se activa cuando el retraso comprometido de la mayoría es superior a un cierto porcentaje del
flowControlTargetLagSeconds.Cuando se ejecuta en una secundaria, el número devuelto es un marcador de posición.
flowControl.isLaggedTimeMicrosCuando se ejecuta en la primaria, el tiempo que el control de flujo ha estado activo desde el último reinicio. El control de flujo se activa cuando el retraso comprometido de la mayoría es superior a un cierto porcentaje del
flowControlTargetLagSeconds.Cuando se ejecuta en una secundaria, el número devuelto es un marcador de posición.
globalLock
globalLock : { totalTime : Long("<num>"), currentQueue : { total : <num>, readers : <num>, writers : <num> }, activeClients : { total : <num>, readers : <num>, writers : <num> } },
globalLockUn documento que informa sobre el estado de bloqueo de la base de datos.
En general, el documento de bloqueos proporciona datos más detallados sobre el uso de los bloqueos.
globalLock.totalTimeEl tiempo, en microsegundos, desde que la base de datos se inició por última vez y creó el
globalLock. Esto es aproximadamente equivalente al tiempo total de actividad del servidor.
globalLock.currentQueueUn documento que proporciona información sobre la cantidad de operaciones en cola debido a un bloqueo.
globalLock.currentQueue.totalEl número total de operaciones en cola esperando el bloqueo (es decir, la suma de
globalLock.currentQueue.readersyglobalLock.currentQueue.writers).Una cola consistentemente pequeña, especialmente de operaciones más cortas, no debería causar preocupación. La información de
globalLock.activeClientslectores y escritores proporciona contexto para estos datos.
globalLock.currentQueue.readersLa cantidad de operaciones que están actualmente en cola y esperando el bloqueo de lectura. Una cola de lectura consistentemente pequeña, especialmente de operaciones más cortas, no debería ser motivo de preocupación.
globalLock.currentQueue.writersLa cantidad de operaciones que están actualmente en cola y esperan el bloqueo de escritura. Una cola de escritura consistentemente pequeña, especialmente de operaciones más cortas, no es motivo de preocupación.
globalLock.activeClientsUn documento que proporciona información sobre la cantidad de clientes conectados y las operaciones de lectura y escritura realizadas por estos clientes.
Utiliza estos datos para proporcionar contexto a los datos de
globalLock.currentQueue.
globalLock.activeClients.totalLa cantidad total de conexiones de clientes internos a la base de datos, incluidos los subprocesos del sistema, así como los lectores y escritores en cola. Esta métrica será superior al total de
activeClients.readersyactiveClients.writersdebido a la inclusión de subprocesos del sistema.
Métricas de cobertura
Solo mongos para instancias.
hedgingMetrics : { numTotalOperations : <num>, numTotalHedgedOperations : <num>, numAdvantageouslyHedgedOperations : <num> },
hedgingMetricsProporciona métricas sobre lecturas cubiertas para la
mongosinstancia.Solo
mongospara instancias.
hedgingMetrics.numTotalOperationsEl número total de operaciones emitidas con la opción de lectura cubierta habilitada para esta
mongosinstancia.Solo
mongospara instancias.
hedgingMetrics.numTotalHedgedOperationsEl número de todas las operaciones para las cuales la
mongosinstancia cubrió la operación de lectura; es decir, envió la operación a un miembro adicional de cada fragmento consultado.Solo
mongospara instancias.
hedgingMetrics.numAdvantageouslyHedgedOperationsEl número total de operaciones en las que la lectura adicional enviada para cubrir la operación de lectura cumplió con la solicitud del cliente.
Solo
mongospara instancias.
indexBuilds
indexBuilds : { total : <num>, phases : { scanCollection : <num>, drainSideWritesTable: <num>, drainSideWritesTablePreCommit: <num>, waitForCommitQuorum: <num>, drainSideWritesTableOnCommit: <num>, processConstraintsViolatonTableOnCommit: <num>, commit: <num> } }
indexBuildsUn documento que proporciona métricas para la creación de índices. Úselas para diagnosticar problemas de creación de índices.
Nota
indexBuildsreemplaza elactiveIndexBuildscampo.Nuevo en la versión 6.1.
indexBuilds.totalEl número total de compilaciones de índices en curso y completadas.
Nuevo en la versión 6.1.
indexBuilds.phasesUn documento que proporciona contadores para cada etapa del proceso de creación de índices. Cada subcampo bajo
indexBuilds.phasesse incrementa cuando la creación de índices alcanza la etapa especificada.Nuevo en la versión 6.1.
indexBulkBuilder
indexBulkBuilder: { count: <long>, resumed: <long>, filesOpenedForExternalSort: <long>, filesClosedForExternalSort: <long>, spilledRanges: <long>, bytesSpilledUncompressed: <long>, bytesSpilled: <long>, numSorted: <long>, bytesSorted: <long>, memUsage: <long> }
indexBulkBuilderProporciona métricas para las operaciones de desarrolladores de índices masivos. Utilice estas métricas para diagnosticar problemas de creación de índices con
createIndexes, la clonación de colecciones durante la sincronización inicial, las creaciones de índices que se reanudan después del inicio y las estadísticas sobre el uso del disco por el clasificador externo.
indexBuildBuilder.bytesSpilledNuevo en la versión 6.0.4.
El número de bytes escritos en el disco por el clasificador externo.
indexBuilder.bytesSpilledUncompressedNuevo en la versión 6.0.4.
La cantidad de bytes que el clasificador externo escribirá en el disco antes de la compresión.
indexBulkBuilder.filesClosedForExternalSortEl número de veces que el clasificador externo cerró un gestor de archivos para volcar datos en el disco. Combina este valor con
filesOpenedForExternalSortpara determinar la cantidad de descriptores de archivo abiertos en uso por el clasificador externo.
indexBulkBuilder.filesOpenedForExternalSortEl número de veces que el clasificador externo abrió un gestionador de archivos para volcar datos al disco. Combina este valor con
filesClosedForExternalSortpara determinar el número de gestionadores de archivos abiertos en uso por el clasificador externo.
indexBulkBuilder.resumedLa cantidad de veces que se creó el desarrollador de índices masivos para una creación de índices reanudable.
indexBulkBuilder.spilledRangesNuevo en la versión 6.0.4.
La cantidad de veces que el clasificador externo volcó datos al disco.
indexStats
indexStats: { count: Long("<num>"), features: { '2d': { count: Long("<num>"), accesses: Long("<num>") }, '2dsphere': { count: Long("<num>"), accesses: Long("<num>") }, '2dsphere_bucket': { count: Long("<num>"), accesses: Long("<num>") }, collation: { count: Long("<num>"), accesses: Long("<num>") }, compound: { count: Long("<num>"), accesses: Long("<num>") }, hashed: { count: Long("<num>"), accesses: Long("<num>") }, id: { count: Long("<num>"), accesses: Long("<num>") }, normal: { count: Long("<num>"), accesses: Long("<num>") }, partial: { count: Long("<num>"), accesses: Long("<num>") }, prepareUnique: { count: Long("<num>"), accesses: Long("<num>") }, // Added in 7.0.14 (and 6.0.20) single: { count: Long("<num>"), accesses: Long("<num>") }, sparse: { count: Long("<num>"), accesses: Long("<num>") }, text: { count: Long("<num>"), accesses: Long("<num>") }, ttl: { count: Long("<num>"), accesses: Long("<num>") }, unique: { count: Long("<num>"), accesses: Long("<num>") }, wildcard: { count: Long("<num>"), accesses: Long("<num>") } } }
indexStatsUn documento que informa estadísticas sobre todos los índices en bases de datos y colecciones únicamente en namespaces que no son del sistema.
indexStatsno informa estadísticas sobre los índices en las bases de datosadmin,localyconfig.Novedades en la versión 6.0.
indexStats.featuresUn documento que proporciona contadores para cada tipo de índice y el número de accesos en cada índice. Cada tipo de índice bajo
indexStats.featurestiene un campocountque cuenta el número total de índices para ese tipo, y un campoaccessesque cuenta el número de accesos en ese índice.Novedades en la versión 6.0.
Información de la instancia
host : <string>, advisoryHostFQDNs : <array>, version : <string>, process : <'mongod'|'mongos'>, pid : Long("<num>"), uptime : <num>, uptimeMillis : Long("<num>"), uptimeEstimate : Long("<num>"), localTime : ISODate("<Date>"),
hostEl nombre de host del sistema. En los sistemas Unix/Linux, esto debería ser igual a la salida del comando
hostname.
Análisis de pestillos
Nuevo en la versión 4.4.
latchAnalysis : { <latch name> : { created : <num>, destroyed : <num>, acquired : <num>, released : <num>, contended : <num>, hierarchicalAcquisitionLevelViolations : { onAcquire : <num>, onRelease : <num> } }, ...
latchAnalysisUn documento que informa sobre las métricas relacionadas con las primitivas de bloqueo interno (también conocidas como pestillos).
Para devolver información, debe especificar explícitamente la
latchAnalysisinclusión:db.runCommand( { serverStatus: 1, latchAnalysis: 1 } ) El
latchAnalysisdevuelve para cada pestillo el<latch name>y las siguientes métricas asociadas:MétricaDescripcióncreatedNúmero de veces que se creó el pestillo.
destroyedNúmero de veces que el pestillo fue destruido.
acquiredNúmero de veces que se adquirió el pestillo.
releasedNúmero de veces que se liberó el pestillo.
contendedNúmero de veces que el pestillo tuvo contención.
hierarchicalAcquisitionLevelViolationsSólo se devuelve si existen violaciones
Contiene los siguientes campos:
onAcquireNúmero de veces que se ha violado la jerarquía de pestillos (es decir, el orden de niveles de pestillos) durante la adquisición de pestillos.
onReleaseNúmero de veces que se ha violado la jerarquía del pestillo (es decir, el orden del nivel del pestillo) durante la liberación del pestillo.
Nuevo en la versión 4.4.
Bloqueos
locks : { <type> : { acquireCount : { <mode> : Long("<num>"), ... }, acquireWaitCount : { <mode> : Long("<num>"), ... }, timeAcquiringMicros : { <mode> : Long("<num>"), ... }, deadlockCount : { <mode> : Long("<num>"), ... } }, ...
locksUn documento que informa sobre cada bloqueo
<type>, datos en el bloqueo<modes>.Los posibles bloqueos de
<types>son los siguientes:Tipo de bloqueoDescripciónParallelBatchWriterModeRepresenta un bloqueo para el modo de escritura por lotes paralelo.
En versiones anteriores, la información de PBWM se informaba como parte de la información de bloqueo de
Global.ReplicationStateTransitionRepresenta el bloqueo tomado para las transiciones de estado del nodo del set de réplicas.
GlobalRepresenta el bloqueo global.
DatabaseRepresenta el bloqueo de la base de datos.
CollectionRepresenta un bloqueo de colección.
MutexRepresenta una exclusión mutua.
MetadataRepresenta un bloqueo de metadatos.
oplogRepresenta un bloqueo en el oplog.
Las posibles
<modes>son:Modo de bloqueoDescripciónRRepresenta un bloqueo compartido (S).
WRepresenta un bloqueo exclusivo (X).
rRepresenta un bloqueo de intención compartida (IS).
wRepresenta un bloqueo de intención exclusiva (IX).
Todos los valores son del tipo
Long().
locks.<type>.acquireWaitCountNúmero de veces que las
locks.<type>.acquireCountadquisiciones de bloqueos encontraron esperas porque los bloqueos se mantenían en una moda conflictiva.
locks.<type>.timeAcquiringMicrosTiempo de espera acumulado en microsegundos para las adquisiciones de bloqueos.
locks.<type>.timeAcquiringMicrosdividido porlocks.<type>.acquireWaitCountproporciona un tiempo de espera promedio aproximado para la moda de bloqueo particular.
caché de registro de sesión lógica
logicalSessionRecordCache : { activeSessionsCount : <num>, sessionsCollectionJobCount : <num>, lastSessionsCollectionJobDurationMillis : <num>, lastSessionsCollectionJobTimestamp : <Date>, lastSessionsCollectionJobEntriesRefreshed : <num>, lastSessionsCollectionJobEntriesEnded : <num>, lastSessionsCollectionJobCursorsClosed : <num>, transactionReaperJobCount : <num>, lastTransactionReaperJobDurationMillis : <num>, lastTransactionReaperJobTimestamp : <Date>, lastTransactionReaperJobEntriesCleanedUp : <num>, sessionCatalogSize : <num> },
logicalSessionRecordCacheProporciona métricas sobre el almacenamiento en caché de las sesiones del servidor.
logicalSessionRecordCache.activeSessionsCountLa cantidad de todas las sesiones locales activas almacenadas en caché en la memoria por la instancia
mongodomongosdesde el último período de actualización.
logicalSessionRecordCache.sessionsCollectionJobCountEl número que rastrea cuántas veces se ha ejecutado el proceso de actualización en la colección
config.system.sessions.
logicalSessionRecordCache.lastSessionsCollectionJobDurationMillisLa duración en milisegundos de la última actualización.
logicalSessionRecordCache.lastSessionsCollectionJobTimestampLa hora en la que se produjo la última actualización.
logicalSessionRecordCache.lastSessionsCollectionJobEntriesRefreshedLa cantidad de sesiones que se actualizaron durante la última actualización.
logicalSessionRecordCache.lastSessionsCollectionJobEntriesEndedEl número de sesiones que terminaron durante la última actualización.
logicalSessionRecordCache.lastSessionsCollectionJobCursorsClosedLa cantidad de cursores que se cerraron durante la última actualización de la colección
config.system.sessions.
logicalSessionRecordCache.transactionReaperJobCountEl número que rastrea la cantidad de veces que el proceso de limpieza de registros de transacciones se ha ejecutado en la colección
config.transactions.
logicalSessionRecordCache.lastTransactionReaperJobDurationMillisLa duración (en milisegundos) de la última limpieza de registros de transacciones.
logicalSessionRecordCache.lastTransactionReaperJobTimestampLa hora de la última limpieza del registro de transacciones.
logicalSessionRecordCache.lastTransactionReaperJobEntriesCleanedUpLa cantidad de entradas en la colección
config.transactionsque se borraron durante la última limpieza de registros de transacciones.
logicalSessionRecordCache.sessionCatalogSize- Para una instancia
mongod, - El tamaño de la caché en memoria de las entradas
config.transactions. Esto corresponde a escrituras reintentables o transacciones cuyas sesiones no han caducado dentro dellocalLogicalSessionTimeoutMinutes.
- Para una instancia
- Para una instancia
mongos, - El número de la caché en memoria de sus sesiones que han tenido transacciones dentro del intervalo más reciente de
localLogicalSessionTimeoutMinutes.
- Para una instancia
mem
mem : { bits : <int>, resident : <int>, virtual : <int>, supported : <boolean> },
memUn documento que informa sobre la arquitectura del sistema de
mongody el uso actual de memoria.
mem.bitsUn número, ya sea
64o32, que indica si la instancia de MongoDB está compilada para una arquitectura de 64 bits o de 32 bits.
mem.residentEl valor de
mem.residentes aproximadamente equivalente a la cantidad de RAM, en mebibytes (MiB), que actualmente utiliza el proceso de la base de datos. Durante el uso normal, este valor tiende a aumentar. En los servidores de bases de datos dedicados, este número tiende a acercarse a la cantidad total de memoria del sistema.
mem.virtualmem.virtualmuestra la cantidad, en mebibyte (MiB), de memoria virtual utilizada por el procesomongod.
mem.supportedUn valor booleano que indica si el sistema subyacente ofrece soporte para información de memoria extendida. Si este valor es falso y el sistema no admite información de memoria extendida, entonces otros valores de
mempueden no ser accesibles para el servidor de la base de datos.
mem.noteEl campo
mem.noteaparece simem.supportedes false.El
mem.notecampo contiene el texto:'not all mem info support on this platform'.
Métricas
metrics : { abortExpiredTransactions: { passes: <integer>, successfulKills: <integer>, timedOutKills: <integer> }, apiVersions: { <appName1>: <string>, <appName2>: <string>, <appName3>: <string> }, aggStageCounters : { <aggregation stage> : Long("<num>") }, changeStreams: { largeEventsFailed: Long("<num>"), largeEventsSplit: Long("<num>") }, commands: { <command>: { failed: Long("<num>"), validator: { total: Long("<num>"), failed: Long("<num>"), jsonSchema: Long("<num>") }, total: Long("<num>") } }, cursor : { moreThanOneBatch : Long("<num>"), timedOut : Long("<num>"), totalOpened : Long("<num>"), lifespan : { greaterThanOrEqual10Minutes : Long("<num>"), lessThan10Minutes : Long("<num>"), lessThan15Seconds : Long("<num>"), lessThan1Minute : Long("<num>"), lessThan1Second : Long("<num>"), lessThan30Seconds : Long("<num>"), lessThan5Seconds : Long("<num>") }, open : { noTimeout : Long("<num>"), pinned : Long("<num>"), multiTarget : Long("<num>"), singleTarget : Long("<num>"), total : Long("<num>") } }, document : { deleted : Long("<num>"), inserted : Long("<num>"), returned : Long("<num>"), updated : Long("<num>") }, dotsAndDollarsFields : { inserts : Long("<num>"), updates : Long("<num>") }, getLastError : { wtime : { num : <num>, totalMillis : <num> }, wtimeouts : Long("<num>"), default : { unsatisfiable : Long("<num>"), wtimeouts : Long("<num>") } }, mongos : { cursor : { moreThanOneBatch : Long("<num>"), totalOpened : Long("<num>") } }, network : { // Added in MongoDB 6.3 totalEgressConnectionEstablishmentTimeMillis : Long("<num>"), totalIngressTLSConnections : Long("<num>"), totalIngressTLSHandshakeTimeMillis : Long("<num>"), totalTimeForEgressConnectionAcquiredToWireMicros : Long("<num>"), totalTimeToFirstNonAuthCommandMillis : Long("<num>") }, operation : { killedDueToClientDisconnect : Long("<num>"), // Added in MongoDB 7.1 (*Also available in 7.0.5*) killedDueToMaxTimeMSExpired : Long("<num>"), // Added in MongoDB 7.2 (*Also available in 7.0.5*) numConnectionNetworkTimeouts : Long("<num>"), // Added in MongoDB 6.3 totalTimeWaitingBeforeConnectionTimeoutMillis : Long("<num>"), // Added in MongoDB 6.3 scanAndOrder : Long("<num>"), writeConflicts : Long("<num>") }, operatorCounters : { expressions : { <command> : Long("<num>") }, match : { <command> : Long("<num>") } }, query: { allowDiskUseFalse: Long("<num>"), updateOneOpStyleBroadcastWithExactIDCount: Long("<num>"), lookup: { hashLookup: Long("<num>"), hashLookupSpillToDisk: Long("<num>"), indexedLoopJoin: Long("<num>"), nestedLoopJoin: Long("<num>") }, multiPlanner: { classicCount: Long("<num>"), classicMicros: Long("<num>"), classicWorks: Long("<num>"), sbeCount: Long("<num>"), sbeMicros: Long("<num>"), sbeNumReads: Long("<num>"), histograms: { classicMicros: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("1073741824"), count: Long("<num>")> }> ], classicNumPlans: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("32"), count: Long("<num>") } ], classicWorks: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("32768"), count: Long("<num>") } ], sbeMicros: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("1073741824"), count: Long("<num>") } ], sbeNumPlans: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("32"), count: Long("<num>") } ], sbeNumReads: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("32768"), count: Long("<num>") } ] } }, planCache: { classic: { hits: Long("<num>"), misses: Long("<num>") }, sbe: { hits: Long("<num>"), misses: Long("<num>") }, classic: { hits: Long("<num>"), misses: Long("<num>"), replanned: Long("<num>") }, sbe: { hits: Long("<num>"), misses: Long("<num>"), replanned: Long("<num>") } }, queryFramework: { aggregate: { classicHybrid: Long("<num>"), classicOnly: Long("<num>"), cqf: Long("<num>"), sbeHybrid: Long("<num>"), sbeOnly: Long("<num>") }, find: { classic: Long("<num>"), cqf: Long("<num>"), sbe: Long("<num>") } } }, queryExecutor: { scanned : Long("<num>"), scannedObjects : Long("<num>"), collectionScans : { nonTailable : Long("<num>"), total : Long("<num>") }, profiler : { collectionScans : { nonTailable : Long("<num>"), tailable : Long("<num>"), total : Long("<num>") } } }, record : { moves : Long("<num>") }, repl : { executor : { pool : { inProgressCount : <num> }, queues : { networkInProgress : <num>, sleepers : <num> }, unsignaledEvents : <num>, shuttingDown : <boolean>, networkInterface : <string> }, apply : { attemptsToBecomeSecondary : Long("<num>"), batches : { num : <num>, totalMillis : <num> }, ops : Long("<num>") }, buffer : { count : Long("<num>"), maxSizeBytes : Long("<num>"), sizeBytes : Long("<num>") }, initialSync : { completed : Long("<num>"), failedAttempts : Long("<num>"), failures : Long("<num>") }, network : { bytes : Long("<num>"), getmores : { num : <num>, totalMillis : <num> }, notPrimaryLegacyUnacknowledgedWrites : Long("<num>"), notPrimaryUnacknowledgedWrites : Long("<num>"), oplogGetMoresProcessed : { num : <num>, totalMillis : <num> }, ops : Long("<num>"), readersCreated : Long("<num>"), replSetUpdatePosition : { num : Long("<num>") } }, reconfig : { numAutoReconfigsForRemovalOfNewlyAddedFields : Long("<num>") }, stateTransition : { lastStateTransition : <string>, userOperationsKilled : Long("<num>"), userOperationsRunning : Long("<num>") }, syncSource : { numSelections : Long("<num>"), numTimesChoseSame : Long("<num>"), numTimesChoseDifferent : Long("<num>"), numTimesCouldNotFind : Long("<num>") }, waiters : { opTime : Long("<num>"), replication : Long("<num>") } }, storage : { freelist : { search : { bucketExhausted : <num>, requests : <num>, scanned : <num> } } }, ttl : { deletedDocuments : Long("<num>"), passes : Long("<num>"), subPasses : Long("<num>") } }
metricsUn documento que devuelve varias estadísticas que reflejan el uso actual y el estado de una instancia de
mongoden ejecución.
metrics.abortExpiredTransactionsDocumento que devuelve estadísticas sobre el estado actual del hilo
abortExpiredTransactions.
metrics.abortExpiredTransactions.passesIndica el número de pases exitosos que abortan transacciones más antiguas que el parámetro
transactionLifetimeLimitSeconds.Si el valor
passesdeja de incrementarse, indica que el hiloabortExpiredTransactionspuede estar atascado.
metrics.abortExpiredTransactions.successfulKillsNúmero de transacciones expiradas que MongoDB finalizó con éxito.
Una sesión se toma de un grupo de sesiones para ejecutar operaciones de base de datos.
AbortExpiredTransactionsSessionCheckoutTimeoutestablece la cantidad máxima de milisegundos para que una sesión se revise al intentar finalizar una transacción expirada.Si la transacción expirada finaliza con éxito, MongoDB incrementa
metrics.abortExpiredTransactions.successfulKills. Si la transacción no finaliza con éxito porque se agota el tiempo de espera al intentar finalizar una sesión, MongoDB incrementametrics.abortExpiredTransactions.timedOutKills.Nuevo en la versión 7.0.26.
metrics.abortExpiredTransactions.timedOutKillsNúmero de transacciones expiradas que MongoDB finalizó sin éxito debido a que se agotó el tiempo de espera al intentar retirar una sesión.
Una sesión se toma de un grupo de sesiones para ejecutar operaciones de base de datos.
AbortExpiredTransactionsSessionCheckoutTimeoutestablece la cantidad máxima de milisegundos para que una sesión se revise al intentar finalizar una transacción expirada.Si la transacción expirada finaliza con éxito, MongoDB incrementa
metrics.abortExpiredTransactions.successfulKills. Si la transacción no finaliza con éxito porque se agota el tiempo de espera al intentar finalizar una sesión, MongoDB incrementametrics.abortExpiredTransactions.timedOutKills.Nuevo en la versión 7.0.26.
metrics.aggStageCountersUn documento que informa sobre el uso de etapas del pipeline de agregación. Los campos en
metrics.aggStageCountersson los nombres de las etapas de la canalización de agregación. Para cada etapa del pipeline,serverStatusinforma el número de veces que se ha ejecutado esa etapa.Actualizado en la versión 5.2 (y 5.0.6).
metrics.apiVersionsUn documento que contiene:
El nombre de cada aplicación cliente
La versión de Stable API con la que se configuró cada aplicación en el último período de 24 horas
Considere lo siguiente al ver
metrics.apiVersions:Los valores posibles que se pueden devolver para cada
appnameson los siguientes:default: El comando se emitió sin especificar una versión de Stable API.1El comando se emitió con la versión 1 de Stable API.
Nota
Es posible que vea ambos valores de retorno para un
appnameporque puede especificar una versión de Stable API a nivel de comando. Es posible que algunos de sus comandos se hayan emitido sin una versión de Stable API, mientras que otros se hayan emitido con la versión 1.Las métricas de la versión de la API se conservan durante 24 horas. Si no se emiten comandos con una versión específica de la API desde una aplicación en las últimas 24 horas, ese
appnamey la versión de la API se removerán de las métricas. Esto también se aplica a la métrica de la versión de la APIdefault.Establezca el
appnameal conectarse a una instancia de MongoDB especificando elappnameen el URI de conexión.?appName=ZZZconfiguraappnameaZZZZ.Los drivers que acceden a la Stable API pueden configurar un
appnamepor defecto.Si no se configura
appname, se rellenará automáticamente un valor por defecto basado en el producto. Por ejemplo, para una conexión MongoDB Compass sinappnameen el URI, la métrica devuelve:'MongoDB Compass': [ 'default' ].
Nuevo en la versión 5.0.
metrics.operatorCountersUn documento que informa sobre el uso de operadores y expresiones del pipeline de agregación de datos.
metrics.operatorCounters.expressionsUn documento con un número que indica con qué frecuencia se ejecutaron las expresiones.
Para obtener métricas de un operador específico, como el operador mayor que (
$gt), agregue el operador al comando:db.runCommand( { serverStatus: 1 } ).metrics.operatorCounters.expressions.$gt Nuevo en la versión 5.0.
metrics.operatorCounters.matchUn documento con un número que indica cuántas veces se ejecutaron las expresiones de coincidencia.
Los operadores de expresiones de coincidencia también se incrementan como parte de una etapa del pipeline de agregación de datos
$match. Si la etapa$matchutiliza el operador$expr, el contador para$expraumenta, pero los contadores de los componentes no.Considera el siguiente query:
db.matchCount.aggregate( [ { $match: { $expr: { $gt: [ "$_id", 0 ] } } } ] ) El contador para
$expraumenta cuando se ejecuta el query. El contador para$gtno aumenta.
metrics.changeStreamsUn documento que informa sobre eventos de flujo de cambios mayores a 16 MB.
Nuevo en la versión 7.0.
metrics.changeStreams.largeEventsFailedEl número de eventos de flujo de cambios que causaron una excepción
BSONObjectTooLargeporque el evento era mayor a 16 MB. Para evitar la excepción, consulte$changeStreamSplitLargeEvent.Nuevo en la versión 7.0: (También disponible en 6.0.9 y 5.0.19)
metrics.changeStreams.largeEventsSplitLa cantidad de eventos de flujo de cambios mayores a 16 MB que se dividieron en fragmentos más pequeños. Los eventos solo se dividen si utiliza la etapa del pipeline
$changeStreamSplitLargeEvent.Nuevo en la versión 7.0: (también disponible en 6.0.9)
metrics.commandsUn documento que informa sobre el uso de comandos de base de datos. Los campos en
metrics.commandsson los nombres de comandos de base de datos. Para cada comando, elserverStatusinforma del número total de ejecuciones y del número de ejecuciones fallidas.metrics.commandsincluyereplSetStepDownWithForce(es decir, el comandoreplSetStepDownconforce: true), así como elreplSetStepDownen general. En versiones anteriores, el comando solo informaba métricas generalesreplSetStepDown.
metrics.commands.<command>.failedLa cantidad de veces que
<command>falló en estemongod.
metrics.commands.<create or collMod>.validatorPara los comandos
createycollMod, un documento que informa sobre los objetosvalidatorno vacíos que se pasan al comando para especificar reglas o expresiones de validación para la colección.
metrics.commands.<create or collMod>.validator.totalLa cantidad de veces que un objeto
validatorno vacío se pasó como opción para el comando en estemongod.
metrics.commands.<create or collMod>.validator.failedEl número de veces que una llamada al comando en este
mongodfalló con un objetovalidatorno vacío debido a un error de validación de esquema.
metrics.commands.<create or collMod>.validator.jsonSchemaEl número de veces que un objeto
validatorcon un$jsonSchemase pasó como opción al comando en estemongod.
metrics.commands.<command>.totalEl número de veces que
<command>se ha ejecutado en estemongod.
metrics.commands.update.pipelineLa cantidad de veces que se usó un pipeline de agregación de datos para actualizar documentos en este
mongod. Reste este valor del número total de actualizaciones para obtener la cantidad de actualizaciones realizadas con la sintaxis del documento.El contador
pipelinesolo está disponible para las operacionesupdateyfindAndModify.
metrics.commands.findAndModify.pipelineLa cantidad de veces que se usó
findAndModify()en un pipeline de agregación de datos para actualizar documentos en estemongod.El contador
pipelinesolo está disponible para las operacionesupdateyfindAndModify.
metrics.commands.update.arrayFiltersLa cantidad de veces que se usó un arrayFilter para actualizar documentos en este
mongod.El contador
arrayFilterssolo está disponible para las operacionesupdateyfindAndModify.
metrics.commands.findAndModify.arrayFiltersLa cantidad de veces que se utilizó un arrayFilter con
findAndModify()para actualizar documentos en estemongod.El contador
arrayFilterssolo está disponible para las operacionesupdateyfindAndModify.
metrics.documentUn documento que refleja los patrones de acceso y modificación de documentos. Compare estos valores con los datos en el
opcountersdocumento, que rastrea el número total de operaciones.
metrics.document.updatedLa cantidad total de documentos coincidentes para las operaciones de actualización. Este valor no es necesariamente igual al número de documentos modificados por las actualizaciones.
metrics.dotsAndDollarsFieldsUn documento con un número que indica la frecuencia con la que se ejecutaron las operaciones de inserción o actualización utilizando un nombre con prefijo de dólar (
$). El valor no indica la cantidad exacta de operaciones.Cuando una operación de inserción crea un nuevo documento, se considera un
insert, en lugar de unupdate.Nuevo en la versión 5.0.
metrics.executorUn documento que informa sobre distintas estadísticas para el ejecutor de replicaciones.
metrics.getLastErrorUn documento que informa sobre el uso del nivel de confirmación de escritura (write concern).
metrics.getLastError.wtimeUn documento que informa sobre los recuentos de operaciones de nivel de confirmación de escritura (write concern) con un argumento
wmayor que1.
metrics.getLastError.wtime.numLa cantidad total de operaciones con un nivel de confirmación de escritura (write concern) especificado (es decir,
w) que esperan que uno o más nodos de un set de réplicas reconozcan la operación de escritura (es decir, un valorwmayor que1).
metrics.getLastError.wtime.totalMillisLa cantidad total de tiempo en milisegundos que el
mongodha dedicado a realizar operaciones de nivel de confirmación de escritura (write concern) con un nivel de confirmación de escritura (write concern) (por ejemplo,w) que espera a que uno o más nodos de un set de réplicas reconozcan la operación de escritura (es decir, un valorwmayor que1).
metrics.getLastError.wtimeoutsLa cantidad de veces que las operaciones de nivel de confirmación de escritura (write concern) han excedido el tiempo de espera como resultado del umbral
wtimeout. Este número se incrementa tanto para las especificaciones por defecto o no de nivel de confirmación de escritura (write concern).
metrics.getLastError.defaultUn documento que informa sobre cuándo se utilizó un nivel de confirmación de escritura (write concern) por defecto (es decir, un nivel de confirmación de escritura que no es
clientSupplied). Los posibles orígenes de un nivel de confirmación de escritura (write concern) por defecto son los siguientes:implicitDefaultcustomDefaultgetLastErrorDefaults
Consulte la siguiente tabla para obtener información sobre cada posible origen del nivel de confirmación de escritura, o
provenance:OrigenDescripciónclientSuppliedEl nivel de confirmación de escritura se especificó en la aplicación.
customDefaultEl nivel de confirmación de escritura se originó a partir de un valor por defecto personalizado. Vea
setDefaultRWConcern.getLastErrorDefaultsEl nivel de confirmación de escritura se originó en el campo
settings.getLastErrorDefaultsdel set de réplicas.implicitDefaultEl nivel de confirmación de escritura (write concern) se originó en el servidor en ausencia de todas las demás especificaciones de nivel de confirmación de escritura (write concern).
metrics.getLastError.default.unsatisfiableLa cantidad de veces que un nivel de confirmación de escritura (write concern) no-
clientSupplieddevolvió el código de errorUnsatisfiableWriteConcern.
metrics.getLastError.default.wtimeoutsLa cantidad de veces que se agotó el tiempo de espera de un nivel de confirmación de escritura (write concern) no-
clientSupplied.
metrics.mongosUn documento que contiene métricas sobre
mongos.
metrics.mongos.cursorUn documento que contiene métricas para los cursores utilizados por
mongos.
metrics.mongos.cursor.moreThanOneBatchLa cantidad total de cursores que han devuelto más de una agrupación desde que comenzó
mongos. Se recuperan agrupaciones adicionales con el comandogetMore.Nuevo en la versión 5.0.
metrics.mongos.cursor.totalOpenedEl número total de cursores que se han abierto desde que
mongoscomenzó, incluidos los cursores que están actualmente abiertos. Se diferencia demetrics.cursor.open.total, que es únicamente el número de cursores abiertos actualmente.Nuevo en la versión 5.0.
metrics.networkNuevo en la versión 6.3.
Un documento que informa sobre las métricas de la red del servidor.
metrics.network.totalEgressConnectionEstablishmentTimeMillisNuevo en la versión 6.3.
El tiempo total en milisegundos para establecer conexiones con el servidor.
metrics.network.totalIngressTLSConnectionsNuevo en la versión 6.3.
La cantidad total de conexiones entrantes al servidor que usan TLS. La cantidad es acumulativa y es el total después de que se inició el servidor.
metrics.network.totalIngressTLSHandshakeTimeMillisNuevo en la versión 6.3.
El tiempo total en milisegundos que las conexiones entrantes al servidor deben esperar para que se complete el protocolo de negociación de la red TLS. La cantidad es acumulativa y es el total después de que se inició el servidor.
metrics.network.totalTimeForEgressConnectionAcquiredToWireMicrosNuevo en la versión 6.3.
El tiempo total en microsegundos que las operaciones esperan entre la adquisición de una conexión al servidor y la escritura de los bytes para enviar al servidor a través de la red. La cantidad es acumulativa y es el total después de que se inició el servidor.
metrics.network.totalTimeToFirstNonAuthCommandMillisNuevo en la versión 6.3.
El tiempo total en milisegundos desde la aceptación de conexiones entrantes al servidor y la recepción de la primera operación que no forma parte del proceso de autenticación de la conexión. La cantidad es acumulativa y es el total después de que se inició el servidor.
metrics.operationUn documento que contiene contadores para varios tipos de operaciones de actualización y query que MongoDB gestiona utilizando tipos de operaciones especiales.
metrics.operation.killedDueToClientDisconnectNuevo en la versión 7.1: (también disponible en 7.0.5)
La cantidad total de operaciones canceladas antes de completarse porque el cliente se desconectó.
metrics.operation.killedDueToMaxTimeMSExpiredNuevo en la versión 7.2: (También disponible en la versión 7.0.5)
Número total de operaciones que expiraron antes de completarse.
metrics.operation.numConnectionNetworkTimeoutsNuevo en la versión 6.3.
La cantidad total de operaciones que fallaron debido a errores de tiempo de espera al adquirir la conexión del servidor.
metrics.operation.totalTimeWaitingBeforeConnectionTimeoutMillisNuevo en la versión 6.3.
Tiempo total en milisegundos que las operaciones esperaron antes de fallar debido a errores de tiempo de espera al adquirir la conexión con el servidor.
metrics.operation.scanAndOrderEl número total de queries que devuelven números ordenados que no pueden realizar la operación de clasificación utilizando un índice.
metrics.operation.writeConflictsLa cantidad total de queries que encontraron conflictos de escritura.
metrics.query.lookupUn documento que proporciona datos detallados sobre el uso de la etapa
$lookupcon el motor de ejecución de query basado en ranuras. Para obtener más información, consulte Optimización de$lookup.Estas métricas están principalmente destinadas al uso interno por parte de MongoDB.
Nuevo en la versión 6.1
metrics.query.multiPlannerProporciona datos detallados de planificación de query para el motor de ejecución de query basado en ranuras y el motor de query clásico. Para obtener más información sobre el motor de ejecución de query basado en ranuras, consulte: Optimizaciones del pipeline del motor de ejecución de query basado en ranuras.
Estas métricas están principalmente destinadas al uso interno por parte de MongoDB.
Nuevo en la versión 6.0.0 y 5.0.9
metrics.query.sortUn documento que contiene contadores relacionados con las etapas de clasificación.
Nuevo en la versión 6.2.
metrics.query.sort.spillToDiskLa cantidad total de escrituras en disco causadas por las etapas de clasificación.
Nuevo en la versión 6.2.
metrics.query.sort.totalBytesSortedLa cantidad total de datos ordenados en bytes.
Nuevo en la versión 6.2.
metrics.query.sort.totalKeysSortedLa cantidad total de claves usadas en las clasificaciones.
Nuevo en la versión 6.2.
query.multiPlanner.classicMicrosAgrega la cantidad total de microsegundos utilizados en el multiplanificador clásico.
query.multiPlanner.classicWorksAgrega el número total de "obras" realizadas en el multiplanner clásico.
query.multiPlanner.sbeMicrosAgrega la cantidad total de microsegundos utilizados en el multiplanificador del motor de ejecución basado en ranuras.
query.multiPlanner.sbeNumReadsAgrega la cantidad total de lecturas realizadas en el multiplanificador del motor de ejecución basado en ranuras.
query.multiPlanner.sbeCountAgrega la cantidad total de invocaciones del multiplanificador del motor de ejecución basado en ranuras.
query.multiPlanner.histograms.classicMicrosUn histograma que mide la cantidad de microsegundos utilizados en una invocación del multiplanificador clásico.
query.multiPlanner.histograms.classicWorksUn histograma que mide la cantidad de "operaciones" realizadas durante una invocación del multiplanificador clásico.
query.multiPlanner.histograms.classicNumPlansUn histograma que mide la cantidad de planes en el conjunto candidato durante una invocación del multiplanificador clásico.
query.multiPlanner.histograms.sbeMicrosUn histograma que mide la cantidad de microsegundos utilizados en una invocación del multiplanificador del motor de ejecución basado en ranuras.
query.multiPlanner.histograms.sbeNumReadsUn histograma que mide el número de lecturas durante una invocación del multiplanner del motor de ejecución basado en ranuras.
query.multiPlanner.histograms.sbeNumPlansUn histograma que mide la cantidad de planes en el conjunto candidato durante una invocación del multiplanificador del motor de ejecución basado en ranuras.
query.queryFramework.aggregateUn documento que informa sobre la cantidad de operaciones de agregación de datos ejecutadas en cada estructura del query. Los subcampos en
query.queryFramework.aggregateindican la cantidad de veces que se utilizó cada framework para realizar una operación de agregación de datos.
query.queryFramework.findUn documento que informa sobre la cantidad de operaciones de búsqueda ejecutadas en cada estructura del query. Los subcampos en
query.queryFramework.findindican la cantidad de veces que se utilizó cada framework para realizar una operación de búsqueda.
metrics.queryExecutor.scannedLa cantidad total de elementos de índice escaneados durante los queries y la evaluación del plan del query. Este contador es el mismo que
totalKeysExamineden el resultado deexplain().
metrics.queryExecutor.scannedObjectsLa cantidad total de documentos escaneados durante los queries y la evaluación del plan del query. Este contador es el mismo que
totalDocsExamineden el resultado deexplain().
metrics.queryExecutor.collectionScansUn documento que informa sobre la cantidad de queries que realizaron un escaneo de colección.
metrics.queryExecutor.collectionScans.nonTailableLa cantidad de queries que realizaron un escaneo de colección que no usaron un cursor con seguimiento.
metrics.queryExecutor.collectionScans.totalLa cantidad total de queries que realizaron un escaneo de colección. El total está compuesto por queries que utilizaron y no utilizaron un cursor con seguimiento.
metrics.recordUn documento que informa sobre los datos relacionados con la asignación de registros en los archivos de memoria en disco.
metrics.replUn documento que informa sobre las métricas relacionadas con el proceso de replicación. El documento
metrics.replaparece en todas las instancias demongod, incluso en aquellas que no son miembros de Sets de réplicas.
metrics.repl.applyUn documento que informa sobre la aplicación de operaciones desde el oplog de replicaciones.
metrics.repl.apply.batchSizeEl número total de entradas del oplog aplicadas. El
metrics.repl.apply.batchSizese incrementa con el número de entradas del oplog en una agrupación en los límites de la agrupación en lugar de incrementarse en uno después de cada entrada.Para una mayor granularidad, consulta
metrics.repl.apply.ops.
metrics.repl.apply.batchesmetrics.repl.apply.batchesinforma sobre el proceso de aplicación del oplog en los miembros secundarios de los Sets de réplicas. Consulta Replicación multihilo para obtener más información sobre los procesos de aplicación del oplog.
metrics.repl.apply.batches.numLa cantidad total de agrupaciones aplicadas en todas las bases de datos.
metrics.repl.apply.batches.totalMillisEl tiempo total en milisegundos que el
mongodha dedicado a aplicar operaciones del oplog.
metrics.repl.apply.opsEl número total de operaciones aplicadas durante el proceso de replicación.
metrics.repl.apply.opsse incrementa después de cada operación, incluidas las operaciones que derivan de entradas de oplog durante la aplicación, como las actualizaciones a colecciones internas de metadatos comoconfig.transactions.
metrics.repl.bufferMongoDB almacena en búfer las operaciones de registro de operaciones desde el búfer de origen de sincronización de replicación antes de aplicar las entradas de registro de operaciones en un lote. proporciona una forma de rastrear
metrics.repl.bufferel búfer de registro de operaciones. Consulte Replicación multiproceso para obtener más información sobre el proceso de aplicación del registro de operaciones.
metrics.repl.buffer.maxSizeBytesEl tamaño máximo del búfer. Este valor es una configuración constante en
mongody no es configurable.
metrics.repl.networkmetrics.repl.networkinforma sobre el uso de la red por parte del proceso de replicación.
metrics.repl.network.bytesmetrics.repl.network.bytesinforma de la cantidad total de datos leídos desde la fuente de sincronización de replicaciones.
metrics.repl.network.getmoresmetrics.repl.network.getmoresinforma sobre las operaciones degetmore, que son solicitudes de resultados adicionales del cursor del oplog como parte del proceso de replicación del oplog.
metrics.repl.network.getmores.nummetrics.repl.network.getmores.numinforma el número total de operacionesgetmore, que son operaciones que solicitan un conjunto adicional de operaciones de la fuente de sincronización de replicación.
metrics.repl.network.getmores.totalMillismetrics.repl.network.getmores.totalMillisinforma sobre el tiempo total necesario para recopilar datos de las operaciones degetmore.Nota
Este número puede ser bastante grande, ya que MongoDB esperará más datos incluso si la operación
getmoreno devuelve datos inicialmente.
metrics.repl.network.getmores.numEmptyBatchesEl número de agrupaciones
oplogvacías que una secundaria recibe de su fuente de sincronización. Una secundaria recibe una agrupación vacía si está totalmente sincronizada con su fuente y:El
getmoreagota el tiempo esperando más datos oEl punto de confirmación mayoritario de la fuente de sincronización ha avanzado desde la última agrupación enviada a esta secundaria.
Para una primaria, si la instancia fue anteriormente una secundaria, el número informa sobre las agrupaciones vacías recibidas cuando era secundaria. De lo contrario, para una primaria, este número es
0.
metrics.repl.network.notPrimaryLegacyUnacknowledgedWritesLa cantidad de operaciones de escritura heredadas no reconocidas (
w: 0) (ver Códigos de operación) que fallaron porque elmongodactual no está en el estadoPRIMARY.
metrics.repl.network.notPrimaryUnacknowledgedWritesLa cantidad de operaciones de escritura no reconocidas (
w: 0) que fallaron porque elmongodactual no está en estadoPRIMARY.
metrics.repl.network.oplogGetMoresProcessedUn documento que informa sobre la cantidad de comandos
getMorepara obtener el oplog que un nodo procesó como fuente de sincronización.
metrics.repl.network.oplogGetMoresProcessed.numLa cantidad de
getMorecomandos para obtener el oplog que un nodo procesó como fuente de sincronización.
metrics.repl.network.oplogGetMoresProcessed.totalMillisEl tiempo, en milisegundos, que un nodo pasó en el procesamiento de los
getMorecomandos contados enmetrics.repl.network.oplogGetMoresProcessed.num.
metrics.repl.network.readersCreatedEl número total de procesos de query de oplog creados. MongoDB creará una nueva query de oplog cada vez que ocurra un error en la conexión, incluido un tiempo de espera o una operación de red. Además,
metrics.repl.network.readersCreatedse incrementará cada vez que MongoDB seleccione una nueva fuente para la replicación.
metrics.repl.network.replSetUpdatePositionUn documento que informa sobre la cantidad de comandos
replSetUpdatePositionque un nodo ha enviado a su fuente de sincronización.
metrics.repl.network.replSetUpdatePosition.numLa cantidad de comandos
replSetUpdatePositionque un nodo ha enviado a su fuente de sincronización. Los comandosreplSetUpdatePositionson comandos internos de replicación que comunican el progreso de la replicación desde los nodos a sus fuentes de sincronización.Nota
Los nodos del set de réplicas en el estado
STARTUP2no envían el comandoreplSetUpdatePositiona su fuente de sincronización.
metrics.repl.reconfigUn documento que contiene la cantidad de veces que los campos del nodo
newlyAddedfueron removidos automáticamente por la primaria. Cuando se agrega un nodo por primera vez al set de réplicas, el camponewlyAddeddel nodo se establece entrue.Nuevo en la versión 5.0.
metrics.repl.reconfig.numAutoReconfigsForRemovalOfNewlyAddedFieldsLa cantidad de veces que los campos del nodo
newlyAddedfueron removidos automáticamente por la primaria. Cuando se agrega un nodo por primera vez al set de réplicas, el camponewlyAddeddel nodo se establece entrue. Después de que la primaria recibe la respuesta del latido del nodo que indica que el estado del nodo esSECONDARY,RECOVERINGoROLLBACK, la primaria automáticamente remueve el camponewlyAddeddel nodo. Los camposnewlyAddedse almacenan en la colecciónlocal.system.replset.Nuevo en la versión 5.0.
metrics.repl.stateTransitionInformación sobre las operaciones de los usuarios cuando el nodo pasa por una de las siguientes transiciones que pueden detener las operaciones de los usuarios:
El nodo se convierte en primario.
El nodo se retira para convertirse en secundario.
El nodo está realizando activamente un rollback.
metrics.repl.stateTransition.lastStateTransitionLa transición que se informa:
Cambio de estadoDescripción"stepUp"El nodo se convierte en primario.
"stepDown"El nodo se retira para convertirse en secundario.
"rollback"El nodo está realizando activamente un rollback.
""El nodo no ha experimentado ningún cambio de estado.
metrics.repl.stateTransition.userOperationsKilledLa cantidad de operaciones detenidas durante el
mongodcambio de estado de la instancia.Nota
Esta métrica refleja el número total de operaciones finalizadas, independientemente de si la operación fue iniciada por el usuario o el servidor.
metrics.repl.stateTransition.userOperationsRunningLa cantidad de operaciones que permanecieron en ejecución durante el
mongodcambio de estado de la instancia.Nota
Esta métrica refleja el número total de operaciones en ejecución, independientemente de si la operación fue iniciada por el usuario o el servidor.
metrics.repl.syncSourceInformación sobre el proceso de selección de la fuente de sincronización de un nodo del set de réplicas.
metrics.repl.syncSource.numSelectionsLa cantidad de veces que un nodo intentó elegir un nodo para sincronizar entre las opciones de fuentes de sincronización disponibles. Un nodo intenta elegir un nodo para sincronizar si, por ejemplo, se reevalúa la fuente de sincronización o el nodo recibe un error de su fuente de sincronización actual.
metrics.repl.syncSource.numTimesChoseSameLa cantidad de veces que un nodo mantuvo su fuente de sincronización original después de reevaluar si su fuente de sincronización actual era óptima.
metrics.repl.syncSource.numTimesChoseDifferentLa cantidad de veces que un nodo eligió una nueva fuente para sincronización después de reevaluar si su fuente de sincronizar actual era óptima.
metrics.repl.syncSource.numTimesCouldNotFindLa cantidad de veces que un nodo no pudo encontrar una fuente de sincronización disponible al intentar elegir un nodo desde el que sincronizar.
metrics.repl.waiters.replicationLa cantidad de subprocesos que esperan acuses de recibo de escritura replicados o registrados.
Novedades en la 7.0.10 versión: (También disponible 6.0.16 en 5.0.27 y)
metrics.repl.waiters.opTimeEl número de hilos en cola para las asignaciones de optime de replicación local.
Novedades en la 7.0.10 versión: (También disponible 6.0.16 en 5.0.27 y)
metrics.storage.freelist.search.bucketExhaustedLa cantidad de veces que
mongodha examinado la lista libre sin encontrar una gran asignación de registros.
metrics.storage.freelist.search.requestsLa cantidad de veces que
mongodha realizado búsquedas de asignaciones de registros disponibles.
metrics.storage.freelist.search.scannedLa cantidad de asignaciones de registros disponibles
mongodha realizado búsquedas.
metrics.ttlUn documento que informa sobre la operación del uso de recursos del proceso del índica ttl.
metrics.ttl.deletedDocumentsLa cantidad total de documentos borrados de las colecciones con un índice ttl.
metrics.ttl.passesNúmero de pasadas realizadas por el proceso en segundo plano de TTL para verificar documentos expirados. Un pase se completa cuando la supervisión de TTL borró todos los documentos candidatos que pudo encontrar de todos los índices TTL. Para obtener más información sobre el proceso de eliminación del índice TTL, consulta Proceso de eliminación.
metrics.ttl.subPassesNúmero de sub-pases realizados por el proceso en segundo plano de TTL para verificar documentos expirados. Para obtener más información sobre el proceso de eliminación del índice TTL, consulta Proceso de eliminación.
metrics.cursor.moreThanOneBatchLa cantidad total de cursores que han devuelto más de una agrupación desde que comenzó el proceso del servidor. Se recuperan agrupaciones adicionales utilizando el comando
getMore.Nuevo en la versión 5.0.
metrics.cursor.timedOutLa cantidad total de cursores que han agotado su tiempo de espera desde que comenzó el proceso del servidor. Si esta cantidad es grande o crece a un ritmo regular, esto puede indicar un error en la aplicación.
metrics.cursor.totalOpenedEl número total de cursores que se abrieron desde que se inició el proceso del servidor, incluidos los cursores que están actualmente abiertos. Se diferencia de
metrics.cursor.open.total, que es únicamente el número de cursores actualmente abiertos.Nuevo en la versión 5.0.
metrics.cursor.lifespanUn documento que informa la cantidad de cursores que tienen vida útil dentro de períodos de tiempo especificados. La vida útil del cursor es el período de tiempo que va desde que se crea el cursor hasta que se elimina usando el comando
killCursorso cuando el cursor no tiene objetos restantes en la agrupación.Los períodos de tiempo de vida útil son:
< 1 segundo
>= 1 segundo a < 5 segundos
>= 5 segundos a < 15 segundos
>= 15 segundos a < 30 segundos
>= 30 segundos a < 1 minuto
>= 1 minuto a < 10 minutos
>= 10 minutos
Nuevo en la versión 5.0.
metrics.cursor.lifespan.greaterThanOrEqual10MinutesLa cantidad de cursores con una vida útil de >= 10 minutos.
Nuevo en la versión 5.0.
metrics.cursor.lifespan.lessThan10MinutesLa cantidad de cursores con una vida útil de >= 1 minuto a < 10 minutos.
Nuevo en la versión 5.0.
metrics.cursor.lifespan.lessThan15SecondsLa cantidad de cursores con una vida útil de >= 5 segundos a < 15 segundos.
Nuevo en la versión 5.0.
metrics.cursor.lifespan.lessThan1MinuteLa cantidad de cursores con una vida útil de >= 30 segundos a < 1 minuto.
Nuevo en la versión 5.0.
metrics.cursor.lifespan.lessThan1SecondLa cantidad de cursores con una vida útil de < 1 segundo.
Nuevo en la versión 5.0.
metrics.cursor.lifespan.lessThan30SecondsLa cantidad de cursores con una vida útil de >= 15 segundos a < 30 segundos.
Nuevo en la versión 5.0.
metrics.cursor.lifespan.lessThan5SecondsLa cantidad de cursores con una vida útil de >= 1 segundo a < 5 segundos.
Nuevo en la versión 5.0.
metrics.cursor.open.noTimeoutLa cantidad de cursores abiertos con la opción
DBQuery.Option.noTimeoutconfigurada para evitar que se agote el tiempo de espera después de un período de inactividad.
metrics.cursor.open.totalLa cantidad de cursores que MongoDB mantiene para los clientes. Debido a que MongoDB agota los cursores no utilizados, normalmente este valor es pequeño o cero. Sin embargo, si hay una cola, cursores con seguimiento obsoletos o una gran cantidad de operaciones, este valor puede aumentar.
metrics.cursor.open.singleTargetEl número total de cursores que solo apuntan a una única partición. Solo las instancias de
mongosinforman valores demetrics.cursor.open.singleTarget.
metrics.cursor.open.multiTargetEl número total de cursores que apuntan únicamente a más de una partición. Solo las instancias de
mongosinforman valores demetrics.cursor.open.multiTarget.
mirroredReads
Disponible únicamente en mongod.
"mirroredReads" : { "seen" : <num>, "sent" : <num> },
mirroredReadsDisponible únicamente en mongod.
Un documento que informa sobre lecturas espejeadas. Para devolver la información de
mirroredReads, debes especificar explícitamente la inclusión:db.runCommand( { serverStatus: 1, mirroredReads: 1 } ) mirroredReads.processedAsSecondaryNuevo en la versión 6.2.
La cantidad de lecturas espejeadas procesadas por este nodo mientras era secundario.
Tip
mirrorReadsParameter
mirroredReads.seenLa cantidad de operaciones que soportan la replicación recibidas por este nodo.
Tip
mirrorReadsParameter
mirroredReads.sentLa cantidad de lecturas espejeadas enviadas por este nodo cuando era primario. Por ejemplo, si una lectura se replica y se envía a dos secundarios, la cantidad de lecturas espejeadas es
2.Tip
mirrorReadsParameter
Red
network : { bytesIn : Long("<num>"), bytesOut : Long("<num>"), physicalBytesIn : Long("<num>"), physicalBytesOut : Long("<num>"), numSlowDNSOperations : Long("<num>"), numSlowSSLOperations : Long("<num>"), numRequests : Long("<num>"), tcpFastOpen : { kernelSetting : Long("<num>"), serverSupported : <bool>, clientSupported : <bool>, accepted : Long("<num>") }, compression : { snappy : { compressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") }, decompressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") } }, zstd : { compressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") }, decompressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") } }, zlib : { compressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") }, decompressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") } } }, serviceExecutors : { passthrough : { threadsRunning : <num>, clientsInTotal : <num>, clientsRunning : <num>, clientsWaitingForData : <num> }, fixed : { threadsRunning : <num>, clientsInTotal : <num>, clientsRunning : <num>, clientsWaitingForData : <num> } }, listenerProcessingTime : { durationMicros : <num> } // Added in MongoDB 6.3 }
networkUn documento que reporta datos sobre el uso de la red de MongoDB. Estas estadísticas solo miden conexiones de entrada, específicamente el tráfico que observan el
mongodo elmongosa través de conexiones de red iniciadas por clientes u otrasmongodomongosinstancias. El tráfico de las conexiones de red iniciadas por esta instanciamongodomongos(específicamente, conexiones de salida) no se mide en estas estadísticas.
network.bytesInLa cantidad total de bytes lógicos que el servidor ha recibido a través de conexiones de red iniciadas por clientes u otras instancias de
mongodomongos. Los bytes lógicos son la cantidad exacta de bytes que contiene un archivo determinado.
network.bytesOutLa cantidad total de bytes lógicos que el servidor ha enviado a través de conexiones de red iniciadas por los clientes u otras instancias de
mongodomongos. Los bytes lógicos corresponden a la cantidad de bytes que contiene un archivo determinado.
network.physicalBytesInEl número total de bytes físicos que el servidor ha recibido a través de conexiones de red iniciadas por clientes u otras instancias
mongodomongos. Los bytes físicos son el número de bytes que realmente residen en el disco.
network.physicalBytesOutLa cantidad total de bytes físicos que el servidor ha enviado a través de conexiones de red iniciadas por clientes u otras instancias de
mongodomongos. Los bytes físicos corresponden a la cantidad de bytes que realmente residen en el disco.
network.numSlowDNSOperationsLa cantidad total de operaciones de resolución de DNS que tomaron más de 1 segundo.
network.numSlowSSLOperationsLa cantidad total de operaciones de negociación SSL que tardaron más de 1 segundo.
network.numRequestsEl número total de solicitudes distintas que el servidor ha recibido. Utiliza este valor para proporcionar contexto para los
network.bytesInynetwork.bytesOutvalores para asegurar que la utilización de la red de MongoDB sea coherente con las expectativas y el uso de la aplicación.
network.tcpFastOpenUn documento que informa sobre el soporte y el uso de conexiones TCP Fast Open (TFO) de MongoDB.
network.tcpFastOpen.kernelSettingSolo para Linux
Devuelve el valor de
/proc/sys/net/ipv4/tcp_fastopen:0- TCP Fast Open está desactivado en el sistema.1- TCP Fast Open está activado para las conexiones salientes.2- TCP Fast Open está activado para las conexiones entrantes.3- TCP Fast Open está activado para las conexiones entrantes y salientes.
network.tcpFastOpen.serverSupportedDevuelve
truesi el sistema operativo host admite conexiones entrantes de TCP Fast Open (TFO).Devuelve
falsesi el sistema operativo del host no admite conexiones entrantes de TCP Fast Open (TFO).
network.tcpFastOpen.clientSupportedDevuelve
truesi el sistema operativo del host admite conexiones salientes de TCP Fast Open (TFO).Devuelve
falsesi el sistema operativo del host no admite conexiones salientes de TCP Fast Open (TFO).
network.tcpFastOpen.acceptedLa cantidad total de conexiones entrantes TCP Fast Open (TFO) aceptadas para
mongodomongosdesde quemongodomongosse iniciaron por última vez.
network.compressionUn documento que informa sobre la cantidad de datos comprimidos y descomprimidos por cada librería de compresión de red.
network.compression.snappyUn documento que proporciona estadísticas sobre la cantidad de bytes que se han comprimidos y descomprimido con la librería snappy.
network.compression.zstdUn documento que devuelve estadísticas sobre la cantidad de bytes que han sido comprimidos y descomprimidos con la biblioteca zstd.
network.compression.zlibUn documento que devuelve estadísticas sobre la cantidad de bytes que han sido comprimidos y descomprimidos con la biblioteca zlib.
network.serviceExecutorsNuevo en la versión 5.0.
Un documento que informa sobre los datos de los ejecutores de servicios, que ejecutan operaciones para las solicitudes de los clientes.
network.serviceExecutors.passthroughNuevo en la versión 5.0.
Un documento que informa sobre los datos de los hilos y clientes para el ejecutor del servicio
passthrough. El ejecutor del serviciopassthroughcrea un nuevo hilo para cada cliente y destruye el hilo después de que el cliente termine.
network.serviceExecutors.passthrough.threadsRunningNuevo en la versión 5.0.
Número de hilos en ejecución en el ejecutor del servicio
passthrough.
network.serviceExecutors.passthrough.clientsInTotalNuevo en la versión 5.0.
La cantidad total de clientes asignados al ejecutor de servicios
passthrough. Puede asignarse un cliente al ejecutor de serviciospassthroughy no estar ejecutando solicitudes actualmente.
network.serviceExecutors.passthrough.clientsRunningNuevo en la versión 5.0.
Número de clientes que actualmente utilizan el ejecutor de servicios
passthroughpara ejecutar solicitudes.
network.serviceExecutors.passthrough.clientsWaitingForDataNuevo en la versión 5.0.
La cantidad de clientes que utilizan el ejecutor de servicios
passthroughy que están esperando datos entrantes de la red.
network.serviceExecutors.fixedNuevo en la versión 5.0.
Un documento que informa sobre los datos de subprocesos y clientes para el ejecutor de servicios
fixed. El ejecutor de serviciosfixedtiene una cantidad fija de subprocesos. Un subproceso se asigna temporalmente a un cliente y se conserva después de que el cliente finaliza.
network.serviceExecutors.fixed.threadsRunningNuevo en la versión 5.0.
Número de hilos en ejecución en el ejecutor del servicio
fixed.
network.serviceExecutors.fixed.clientsInTotalNuevo en la versión 5.0.
La cantidad total de clientes asignados al ejecutor de servicios
fixed. Puede asignarse un cliente al ejecutor de serviciosfixedy no estar ejecutando solicitudes actualmente.
network.serviceExecutors.fixed.clientsRunningNuevo en la versión 5.0.
Número de clientes que actualmente utilizan el ejecutor de servicios
fixedpara ejecutar solicitudes.
network.serviceExecutors.fixed.clientsWaitingForDataNuevo en la versión 5.0.
La cantidad de clientes que utilizan el ejecutor de servicios
fixedy que están esperando datos entrantes de la red.
opLatencies
opLatencies : { reads : <document>, writes : <document>, commands : <document>, transactions : <document> },
opLatenciesUn documento que contiene las latencias de operación de la instancia en su conjunto. Consulte el documento de latencyStats para obtener una descripción de este documento.
A partir de MongoDB 6.2, el informe de la métrica
opLatenciesse genera tanto para las instancias demongodcomo para las demongos. Las latencias reportadas pormongosincluyen el tiempo de latencia de la operación y el tiempo de comunicación entre las instanciasmongodymongos.
Contadores de preocupación de opRead
Advertencia
Removido
A partir de la versión 5.0, opReadConcernCounters se reemplaza por readConcernCounters
Solo para instancias de mongod
opReadConcernCounters : { available : Long("<num>"), linearizable : Long("<num>"), local : Long("<num>"), majority : Long("<num>"), snapshot : Long("<num>"), none : Long("<num>") }
opReadConcernCountersEliminado en la versión 5.0. Reemplazado por
readConcernCounters.Un documento que informa sobre el nivel de consistencia de lectura especificado por las operaciones del query para la instancia de
mongoddesde que se inició por última vez.EspecificadowDescripción"available"La cantidad de operaciones del query que especificaron el nivel de consistencia de lectura
"available"."linearizable"La cantidad de operaciones del query que especificaron el nivel de consistencia de lectura
"linearizable"."local"La cantidad de operaciones del query que especificaron el nivel de consistencia de lectura
"local"."majority"La cantidad de operaciones del query que especificaron el nivel de consistencia de lectura
"majority"."snapshot"La cantidad de operaciones del query que especificaron el nivel de consistencia de lectura
"snapshot"."none"La cantidad de operaciones del query que no especificaron un nivel de consistencia de lectura y, en cambio, utilizaron el nivel de consistencia de lectura por defecto.
La suma de
opReadConcernCounterses igual aopcounters.query.
Contadores de preocupación de escritura de op
Solo para instancias de mongod
opWriteConcernCounters : { insert : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... } }, implicitDefault : { wmajority : Long("<num>") wnum : { <num> : Long("<num>"), ... } } } }, update : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... } wtag : { <tag1> : Long("<num>"), ... } }, implicitDefault : { wmajority : Long("<num>") wnum : { <num> : Long("<num>"), ... } } } }, delete : { wmajority : Long("<num>") wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... } }, implicitDefault : { wmajority : Long("<num>") wnum : { <num> : Long("<num>"), ... } } } } }
opWriteConcernCountersUn documento que informa sobre los niveles de confirmación de escritura (write concern) especificados por las operaciones de escritura para la instancia
mongoddesde que se inició por última vez.Más específicamente, el
opWriteConcernCountersinforma sobre el w: <value> especificado por las operaciones de guardado. La opción de indicador de diario (j) y la opción de tiempo de espera (wtimeout) del nivel de confirmación de escritura no afectan el recuento. El contador se incrementa incluso si la operación se agota.Nota
Solo está disponible cuando el parámetro
reportOpWriteConcernCountersInServerStatusse establece entrue(falsepor defecto).
opWriteConcernCounters.insertUn documento que informa sobre el w: <value> especificado por las operaciones de inserción para la instancia de
mongoddesde que se inició por última vez:Nota
Solo está disponible cuando el parámetro
reportOpWriteConcernCountersInServerStatusse establece entrue(falsepor defecto).insert : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : {}, wtag : {} }, implicitDefault : { wmajority : Long("<num>") wnum : {} } } }, EspecificadowDescripción"wmajority"La cantidad de operaciones de inserción que especificaron
w: "majority"."wnum"Número de operaciones de inserción que especificaron
w: <num>. Los recuentos se agrupan por el ``<num>`` específico."wtag"La cantidad de operaciones de inserción que especificaron
w: <tag>. Los recuentos se agrupan por el<tag>específico."none"La cantidad de operaciones de inserción que no especificaron el valor
w. Estas operaciones utilizan el valor por defectowde "mayoría"."noneInfo"La cantidad de operaciones del query no transaccionales que utilizan niveles de confirmación de escritura (write concern) por defecto. Las métricas rastrean el uso del
cluster wide write concern(el nivel de confirmación de escritura global por defecto) y el nivel de confirmación de escritura implícito por defecto.La suma de los valores en
opWriteConcernCounters.noneInfodebe ser igual al valor deopWriteConcernCounters.none.La suma de
opWriteConcernCounters.insertes igual aopcounters.insert.
opWriteConcernCounters.updateUn documento que informa sobre el w: <value> especificado por las operaciones de actualización para la instancia
mongoddesde que se inició por última vez:Nota
Solo está disponible cuando el parámetro
reportOpWriteConcernCountersInServerStatusse establece entrue(falsepor defecto).update : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : {}, wtag : {} }, implicitDefault : { wmajority : Long("<num>") wnum : {} } } }, EspecificadowDescripción"wmajority"La cantidad de operaciones de actualización que especificaron
w: "majority"."wnum"La cantidad de operaciones de actualización que especificaron
w: <num>. Los recuentos se agrupan por el<num>específico."wtag"La cantidad de operaciones de actualización que especificaron
w: <tag>. Los recuentos se agrupan por el<tag>específico."none"La cantidad de operaciones de actualización que no especificaron el valor
w. Estas operaciones utilizan el valorwpor defecto de1."noneInfo"La cantidad de operaciones del query no transaccionales que utilizan niveles de confirmación de escritura (write concern) por defecto. Las métricas rastrean el uso del
cluster wide write concern(el nivel de confirmación de escritura global por defecto) y el nivel de confirmación de escritura implícito por defecto.La suma de los valores en
opWriteConcernCounters.noneInfodebe ser igual al valor deopWriteConcernCounters.none.La suma de
opWriteConcernCounters.updatees igual aopcounters.update.
opWriteConcernCounters.deleteUn documento que informa sobre el w: <value> especificado por las operaciones de borrado para la instancia
mongoddesde que se inició por última vez:Nota
Solo está disponible cuando el parámetro
reportOpWriteConcernCountersInServerStatusse establece entrue(falsepor defecto).delete : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : {}, wtag : {} }, implicitDefault : { wmajority : Long("<num>") wnum : {} } } } EspecificadowDescripción"wmajority"La cantidad de operaciones de borrado que especificaron
w: "majority"."wnum"La cantidad de operaciones de borrado que especificaron
w: <num>. Los recuentos se agrupan por el<num>específico."wtag"La cantidad de operaciones de borrado que especificaron
w: <tag>. Los recuentos se agrupan por el<tag>específico."none"La cantidad de operaciones de borrado que no especificaron el valor
w. Estas operaciones utilizan el valorwpor defecto de1."noneInfo"La cantidad de operaciones del query no transaccionales que utilizan niveles de confirmación de escritura (write concern) por defecto. Las métricas rastrean el uso del
cluster wide write concern(el nivel de confirmación de escritura global por defecto) y el nivel de confirmación de escritura implícito por defecto.La suma de los valores en
opWriteConcernCounters.noneInfodebe ser igual al valor deopWriteConcernCounters.none.La suma de
opWriteConcernCounters.deletees igual aopcounters.delete.
opcounters
opcounters : { insert : Long("<num>"), query : Long("<num>"), update : Long("<num>"), delete : Long("<num>"), getmore : Long("<num>"), command : Long("<num>"), },
opcountersUn documento que informa sobre las operaciones de bases de datos por tipo desde que la instancia
mongodse inició por última vez.Estos números aumentarán con el tiempo hasta el siguiente reinicio. Analice estos valores a lo largo del tiempo para rastrear la utilización de la base de datos.
Nota
Los datos en
opcountersconsideran las operaciones que afectan a varios documentos, como las inserciones masivas o las actualizaciones múltiples, como una única operación. Consultametrics.documentpara un seguimiento más detallado de las operaciones a nivel de documento.Además, estos valores reflejan las operaciones recibidas y se incrementan incluso cuando las operaciones no son exitosas.
opcounters.insertLa cantidad total de operaciones de inserción recibidas desde que la instancia de
mongodse inició por última vez.
opcounters.queryLa cantidad total de queries recibidos desde que la instancia
mongodse inició por última vez. A partir de MongoDB 7.1, las agregaciones de datos se consideran operaciones del query e incrementan este valor.
opcounters.updateLa cantidad total de operaciones de actualización recibidas desde que la instancia
mongodse inició por última vez.
opcounters.deleteLa cantidad total de operaciones de borrado desde que la instancia
mongodse inició por última vez.
opcounters.getmoreLa cantidad total de
getMoreoperaciones desde que la instanciamongodse inició por última vez. Este contador puede ser alto incluso si el recuento del query es bajo. Los nodos secundarios envían operacionesgetMorecomo parte del proceso de replicación.
opcounters.commandLa cantidad total de comandos emitidos a la base de datos desde que la instancia
mongodse inició por última vez.opcounters.commandcuenta todos los comandos excepto los siguientes:
opcounters.deprecatedopQuerycuenta la cantidad de solicitudes de códigos de operación que están en desuso en MongoDB 5.0, pero que se admiten temporalmente. Esta sección solo aparece en el resultado dedb.serverStatus()cuando se ha usado un código de operación obsoleto.El contador se reinicia cuando se inicia
mongod.deprecated: { opQuery: Long("<num>"), }
opcountersRepl
Los valores de opcountersRepl.* devueltos son de tipo NumberLong.
opcountersRepl : { insert : Long("<num>"), query : Long("<num>"), update : Long("<num>"), delete : Long("<num>"), getmore : Long("<num>"), command : Long("<num>"), },
opcountersReplUn documento que informa sobre las operaciones de replicación de la base de datos por tipo desde que la instancia
mongodse inició por última vez.Estos valores solo aparecen cuando el host actual es un nodo de un set de réplicas.
Estos valores diferirán de los valores de
opcountersdebido a cómo MongoDB serializa las operaciones durante la replicación. Consulta Replicación para obtener más información sobre la replicación.Estos números aumentarán con el tiempo en respuesta al uso de la base de datos hasta el siguiente reinicio. Analice estos valores a lo largo del tiempo para rastrear la utilización de la base de datos.
Los valores de opcountersRepl.* devueltos son de tipo NumberLong.
opcountersRepl.insertLa cantidad total de operaciones de inserción replicadas desde que la instancia
mongodse inició por última vez.Los valores de opcountersRepl.* devueltos son de tipo NumberLong.
opcountersRepl.queryLa cantidad total de queries replicados desde que la instancia
mongodse inició por última vez.Los valores de opcountersRepl.* devueltos son de tipo NumberLong.
opcountersRepl.updateLa cantidad total de operaciones de actualización replicadas desde que la instancia
mongodse inició por última vez.Los valores de opcountersRepl.* devueltos son de tipo NumberLong.
opcountersRepl.deleteLa cantidad total de operaciones de borrado replicadas desde que la instancia
mongodse inició por última vez.Los valores de opcountersRepl.* devueltos son de tipo NumberLong.
opcountersRepl.getmoreLa cantidad total de
getMoreoperaciones desde que la instanciamongodse inició por última vez. Este contador puede ser alto incluso si el recuento del query es bajo. Los nodos secundarios envían operacionesgetMorecomo parte del proceso de replicación.Los valores de opcountersRepl.* devueltos son de tipo NumberLong.
opcountersRepl.commandLa cantidad total de comandos replicados y emitidos a la base de datos desde que la instancia
mongodse inició por última vez.Los valores de opcountersRepl.* devueltos son de tipo NumberLong.
oplogTruncation
oplogTruncation : { totalTimeProcessingMicros : Long("<num>"), processingMethod : <string>, oplogMinRetentionHours : <double> totalTimeTruncatingMicros : Long("<num>"), truncateCount : Long("<num>") },
oplogTruncationUn documento que informa sobre los truncamientos de oplog.
El campo solo aparece cuando la instancia actual es un Nodo de un Set de réplicas y utiliza ya sea el motor de almacenamiento WiredTiger o el motor de almacenamiento en memoria para implementaciones autogestionadas.
Disponible en el motor de almacenamiento WiredTiger.
oplogTruncation.totalTimeProcessingMicrosEl tiempo total utilizado, en microsegundos, para escanear o muestrear el oplog y determinar los puntos de truncamiento del oplog.
totalTimeProcessingMicrossolo tiene sentido si la instancia demongodse inició en archivos de datos existentes (es decir, no tiene sentido para el motor de almacenamiento en memoria para implementaciones autogestionadas).Ver
oplogTruncation.processingMethodDisponible en el motor de almacenamiento WiredTiger.
oplogTruncation.processingMethodEl método utilizado al inicio para determinar los puntos de truncamiento del oplog. El valor puede ser
"sampling"o"scanning".processingMethodsolo tiene sentido si la instancia demongodse inició en archivos de datos existentes (es decir, no tiene sentido para el motor de almacenamiento en memoria para implementaciones autogestionadas).Disponible en el motor de almacenamiento WiredTiger.
oplogTruncation.oplogMinRetentionHoursEl período mínimo de retención para el oplog en horas. Si el oplog excedió el tamaño del oplog, el
mongodsolo trunca las entradas del oplog anteriores al valor de retención configurado.Solo es visible si el
mongodes un nodo de un set de réplicas y:El
mongodse inició con la opción de línea de comandos--oplogMinRetentionHourso la opción de archivo de configuraciónstorage.oplogMinRetentionHours,or
El período mínimo de retención se configuró después del inicio utilizando
replSetResizeOplog.
oplogTruncation.totalTimeTruncatingMicrosEl tiempo acumulado utilizado, en microsegundos, en realizar truncamientos del oplog.
Disponible en el motor de almacenamiento WiredTiger.
oplogTruncation.truncateCountLa cantidad acumulada de truncamientos del oplog.
Disponible en el motor de almacenamiento WiredTiger.
planCache
Nuevo en la versión 7.0.
planCache : { totalQueryShapes : Long("<num>"), totalSizeEstimateBytes : Long("<num>"), classic : { hits : Long("<num>"), misses : Long("<num>"), replanned : Long("<num>") }, sbe : { hits : Long("<num>"), misses: Long("<num>"), replanned : Long("<num>") } }
planCache.totalQueryShapesNúmero aproximado de formas de consulta.
Antes de la versión 7.2, la información sobre la cantidad de formas de consulta se almacenaba en el campo
query.planCacheTotalQueryShapes.Nuevo en la versión 7.2: (También disponible en la versión 7.0.5)
planCache.totalSizeEstimateBytesTamaño total de la caché del plan en bytes.
Antes de la versión 7.2, la información sobre el tamaño de la caché del plan se almacenaba en el campo
query.planCacheTotalSizeEstimateBytes.Nuevo en la versión 7.2: (También disponible en la versión 7.0.5)
planCache.classic.hitsLa cantidad de planes del query clásicos del motor de ejecución encontrados en la caché del query y reutilizados para evitar la fase de planificación del query.
planCache.classic.missesLa cantidad de planes del query del motor de ejecución clásico que no se encontraron en la caché del query y pasaron por la fase de planificación del query.
planCache.classic.replannedNúmero de planes de query del motor de ejecución clásico que fueron descartados y reoptimizados.
Nuevo en la versión 7.0.22.
planCache.sbe.hitsLa cantidad de planes del query del motor de ejecución basados en ranuras encontrados en la caché del query y reutilizados para evitar la fase de planificación del query.
perfilador
profiler: { totalWrites: <integer>, activeWriters: <integer> }
profiler.totalWritesNúmero total de escrituras en las colecciones de
profileen todas las bases de datos.
queryStats
Novedades en la 7.0.12 versión: (Tambiéndisponible a partir de la 6.0.7 versión)
queryStats: { numEvicted: Long("<num>"), numRateLimitedRequests: Long("<num>"), queryStatsStoreSizeEstimateBytes: Long("<num>"), numQueryStatsStoreWriteErrors: Long("<num>"), numHmacApplicationErrors: Long("<num>") },
queryStatsUn documento que contiene métricas para la etapa de agregación
$queryStats.
queryStats.numEvictedNúmero de queries que la colección virtual de
$queryStatsha expulsado debido a limitaciones de espacio.
queryStats.numRateLimitedRequestsNúmero de veces que no se registraron las estadísticas de query para un query debido a la limitación de velocidad.
queryStats.queryStatsStoreSizeEstimateBytesTamaño estimado actual de los objetos en la colección virtual
$queryStats.
queryAnalyzers
Nuevo en la versión 7.0.
queryAnalyzers: { activeCollections: <integer>, totalCollections: <integer>, totalSampledReadsCount: <integer>, totalSampledWritesCount: <integer>, totalSampledReadsBytes: <integer>, totalSampledWritesBytes: <integer> }
queryAnalyzers.activeCollectionsLa cantidad de colecciones que el analizador del query muestrea activamente.
readConcernCounters
Nuevo en la versión 5.0.
readConcernCounters : { nonTransactionOps : { none : Long("<num>"), noneInfo : { CWRC : { local : Long("<num>"), available : Long("<num>"), majority : Long("<num>") }, implicitDefault : { local : Long("<num>"), available : Long("<num>") } }, local : Long("<num>"), available : Long("<num>"), majority : Long("<num>"), snapshot : { withClusterTime : Long("<num>"), withoutClusterTime : Long("<num>") }, linearizable : Long("<num>") }, transactionOps : { none : Long("<num>"), noneInfo : { CWRC : { local : Long("<num>"), available : Long("<num>"), majority : Long("<num>") }, implicitDefault : { local : Long("<num>"), available : Long("<num>") } }, local : Long("<num>"), majority : Long("<num>"), snapshot : { withClusterTime : Long("<num>"), withoutClusterTime : Long("<num>") } } },
readConcernCountersUn documento que informa sobre el nivel de consistencia de lectura especificado por las operaciones de query. Este documento contiene el
readConcernCounters.nonTransactionOpsy elreadConcernCounters.transactionOps.
readConcernCounters.nonTransactionOpsUn documento que informa sobre el nivel de consistencia de lectura especificado por las operaciones del query no transaccionales realizadas después del último inicio del servidor de bases de datos.
readConcernCounters.nonTransactionOps.noneLa cantidad de operaciones del query no transaccionales que no especificaron un nivel de consistencia de lectura y, en su lugar, utilizaron:
el nivel de consistencia de lectura por defecto o
la configuración global por defecto del nivel de consistencia de lectura si fue establecida por el comando
setDefaultRWConcern.
readConcernCounters.nonTransactionOps.noneInfoLa cantidad de operaciones del query no transaccionales que utilizan el nivel de consistencia de lectura global por defecto y un nivel de consistencia de lectura implícito por defecto.
La suma de los valores en
readConcernCounters.nonTransactionOps.noneInfodebe ser igual al valor dereadConcernCounters.nonTransactionOps.none.
readConcernCounters.nonTransactionOps.localLa cantidad de operaciones del query no transaccionales que especificaron el nivel de consistencia de lectura
"local".
readConcernCounters.nonTransactionOps.availableLa cantidad de operaciones del query no transaccionales que especificaron el nivel de consistencia de lectura
"available".
readConcernCounters.nonTransactionOps.majorityLa cantidad de operaciones del query no transaccionales que especificaron el nivel de consistencia de lectura
"majority".
readConcernCounters.nonTransactionOps.snapshotDocumento que contiene operaciones del query no transaccionales que especifican el nivel de consistencia de lectura
"snapshot".
readConcernCounters.nonTransactionOps.snapshot.withClusterTimeLa cantidad de operaciones del query no transaccionales que especificaron el nivel de consistencia de lectura
"snapshot"y el tiempo del clúster, que especificó un punto en el tiempo.
readConcernCounters.nonTransactionOps.snapshot.withoutClusterTimeLa cantidad de operaciones del query no transaccionales que especificaron el nivel de consistencia de lectura
"snapshot"sin el tiempo del clúster, lo que significa que se omitió un punto en el tiempo, y el servidor leerá la snapshot más recientemente confirmada disponible en el nodo.
readConcernCounters.nonTransactionOps.linearizableLa cantidad de operaciones del query no transaccionales que especificaron el nivel de consistencia de lectura
"linearizable".
readConcernCounters.transactionOpsUn documento que informa sobre el nivel de consistencia de lectura especificado por las operaciones del query transaccionales realizadas después de que el servidor de base de datos se inició por última vez.
readConcernCounters.transactionOps.noneLa cantidad de operaciones del query transaccionales que no especificaron un nivel de consistencia de lectura y, en cambio, utilizaron el nivel de consistencia de lectura por defecto o la configuración global por defecto de nivel de consistencia de lectura o de nivel de confirmación de escritura (write concern) agregada con el comando
setDefaultRWConcern.
readConcernCounters.transactionOps.noneInfoInformación sobre el nivel de consistencia de lectura global por defecto y el nivel de consistencia de lectura implícito por defecto utilizados por las operaciones del query transaccionales.
readConcernCounters.transactionOps.localLa cantidad de operaciones de query transaccionales que especificaron el nivel de consistencia de lectura
"local".
readConcernCounters.transactionOps.availableLa cantidad de operaciones de query transaccionales que especificaron el nivel de consistencia de lectura
"available".
readConcernCounters.transactionOps.majorityLa cantidad de operaciones de query transaccionales que especificaron el nivel de consistencia de lectura
"majority".
readConcernCounters.transactionOps.snapshotDocumento que contiene las operaciones del query transaccionales que especificaron el nivel de consistencia de lectura
"snapshot".
readConcernCounters.transactionOps.snapshot.withClusterTimeLa cantidad de operaciones del query transaccionales que especificaron el nivel de consistencia de lectura
"snapshot"y el tiempo del clúster, que especificaron un punto en el tiempo.
readConcernCounters.transactionOps.snapshot.withoutClusterTimeLa cantidad de operaciones del query transaccionales que especificaron el nivel de consistencia de lectura
"snapshot"sin el tiempo del clúster, lo que significa que se omitió un punto en el tiempo y que el servidor leerá la snapshot más recientemente comprometida disponible para el nodo.
leerContadoresDePreferencias
Disponible a partir de MongoDB 7.0.3 (y 6.0.11).
Disponible únicamente en mongod.
readPreferenceCounters : { executedOnPrimary : { primary : { internal : Long("<num>"), external : Long("<num>") }, primaryPreferred : { internal : Long("<num>"), external : Long("<num>") }, secondary : { internal : Long("<num>"), external : Long("<num>") }, secondaryPreferred : { internal : Long("<num>"), external : Long("<num>") }, nearest : { internal : Long("<num>"), external : Long("<num>") }, tagged : { internal : Long("<num>"), external : Long("<num>") } }, executedOnSecondary : { primary : { internal : Long("<num>"), external : Long("<num>") }, primaryPreferred : { internal : Long("<num>"), external : Long("<num>") }, secondary : { internal : Long("<num>"), external : Long("<num>") }, secondaryPreferred : { internal : Long("<num>"), external : Long("<num>") }, nearest : { internal : Long("<num>"), external : Long("<num>") }, tagged : { internal : Long("<num>"), external : Long("<num>") } } }
readPreferenceCountersDisponible únicamente en mongod.
Un documento que informa sobre la cantidad de operaciones recibidas por este nodo
mongodcon la preferencia de lectura especificada.El subcampo
taggedse refiere a cualquier preferencia de lectura que se pase con una etiqueta.
repl
repl : { hosts : [ <string>, <string>, <string> ], setName : <string>, setVersion : <num>, isWritablePrimary : <boolean>, secondary : <boolean>, primary : <hostname>, me : <hostname>, electionId : ObjectId(""), primaryOnlyServices: { ReshardingRecipientService: { state: <string>, numInstances: <num> }, RenameCollectionParticipantService: { state: <string>, numInstances: <num> }, ShardingDDLCoordinator: { state: <string>, numInstances: <num> }, ReshardingDonorService: { state: <string>, numInstances: <num> } }, rbid : <num>, replicationProgress : [ { rid : <ObjectId>, optime : { ts: <timestamp>, term: <num> }, host : <hostname>, memberId : <num> }, ... ] }
replUn documento que informa sobre la configuración del Set de réplicas.
replsolo aparece cuando el host actual es un Set de réplicas. Consulte Replicación para obtener más información sobre la replicación.
repl.hostsUn arreglo de los nombres de host y la información de los puertos de los nodos actuales del set de réplicas (
"host:port").
repl.setNameUn string con el nombre del Set de réplicas actual. Este valor refleja el
--replSetde la línea de comandos, o el valorreplSetNameen el archivo de configuración.
repl.isWritablePrimaryUn operador booleano que indica si el nodo actual es el primario del set de réplicas.
repl.secondaryUn operador booleano que indica si el nodo actual es un nodo secundario del set de réplicas.
repl.primaryEl nombre de host y la información de los puertos (
"host:port") del nodo primario actual del set de réplicas.
repl.meEl nombre de host y la información de los puertos (
"host:port") para el nodo actual del set de réplicas.
repl.primaryOnlyServicesDocumento que contiene la cantidad y el estado de las instancias de cada servicio primario activo en el servidor. Los servicios primarios solo pueden iniciarse cuando un servidor es primario, pero pueden continuar ejecutándose hasta su finalización después de que el servidor cambia de estado.
Nuevo en la versión 5.0.
repl.primaryOnlyServices.ReshardingRecipientServiceDocumento que contiene el estado y la cantidad de instancias de
ReshardingRecipientService.Los destinatarios son las particiones que poseerán los fragmentos como resultado de la operación de redistribución, de acuerdo con la nueva clave de fragmentación y las zonas.
El coordinador de redistribución indica a cada nodo primario de las particiones donantes y receptoras a cambiar el nombre de la colección particionada temporal. La colección temporal se convierte en la nueva colección particionada.
Nuevo en la versión 5.0.
repl.primaryOnlyServices.RenameCollectionParticipantServiceDocumento que contiene el estado y la cantidad de instancias de
RenameCollectionParticipantService.El
RenameCollectionParticipantServicegarantiza que, después de que una partición reciba una solicitud de renameCollection, la partición pueda reanudar el cambio de nombre local en caso de fallo del sistema.Nuevo en la versión 5.0.
repl.primaryOnlyServices.ShardingDDLCoordinatorDocumento que contiene el estado y la cantidad de instancias de
ShardingDDLCoordinator.El servicio
ShardingDDLCoordinatorgestiona las operaciones DDL para bases de datos primarias tales como: crear base de datos, descartar base de datos, renombrar colección.El
ShardingDDLCoordinatorgarantiza que una operación de DDL para cada base de datos pueda realizarse en un momento específico dentro de un clúster particionado.Nuevo en la versión 5.0.
repl.primaryOnlyServices.ReshardingDonorServiceDocumento que contiene el estado y la cantidad de instancias de
ReshardingDonorService.Los donantes son las particiones que poseen fragmentos de la colección particionada antes de que se complete la operación de cambio de nombre.
El coordinador de redistribución indica a cada nodo primario de las particiones donantes y receptoras a cambiar el nombre de la colección particionada temporal. La colección temporal se convierte en la nueva colección particionada.
Nuevo en la versión 5.0.
repl.rbidIdentificador de rollback . Se utiliza para determinar si se ha producido un rollback para esta instancia
mongod.
repl.replicationProgressUn arreglo con un documento para cada nodo del set de réplicas que informa sobre el proceso de replicación a este nodo. Por lo general, se trata del primario, o de los secundarios si se utiliza la replicación en cadena.
Para incluir este resultado, debe pasar la opción
replalserverStatus, como en el siguiente ejemplo:db.serverStatus({ "repl": 1 }) db.runCommand({ "serverStatus": 1, "repl": 1 }) El contenido de la sección
repl.replicationProgressdepende de la fuente de Replicación de cada Nodo. Esta sección da soporte a operaciones internas y es solo para uso interno y de diagnóstico.
repl.replicationProgress[n].ridUn ObjectId utilizado como ID para los nodos del set de réplicas. Solo para uso interno.
repl.replicationProgress[n].optimeInformación sobre la última operación del oplog que el nodo aplicó, según lo informado por este nodo.
seguridad
security : { authentication : { saslSupportedMechsReceived : <num>, mechanisms : { MONGODB-X509 : { speculativeAuthenticate : { received : Long("<num>"), successful : Long("<num>") }, authenticate : { received : Long("<num>"), successful : Long("<num>") } }, SCRAM-SHA-1 : { speculativeAuthenticate : { received : Long("<num>"), successful : Long("<num>") }, authenticate : { received : Long("<num>"), successful : Long("<num>") } }, SCRAM-SHA-256 : { speculativeAuthenticate : { received : Long("<num>"), successful : Long("<num>") }, authenticate : { received : Long("<num>"), successful : Long("<num>") } } } }, SSLServerSubjectName: <string>, SSLServerHasCertificateAuthority: <boolean>, SSLServerCertificateExpirationDate: <date> },
securityUn documento que informa sobre:
El número de veces que se ha utilizado un mecanismo de autenticación determinado para autenticar contra la instancia de
mongodomongos.El certificado TLS/SSL de la instancia
mongod/mongos. (Solo aparece para la instanciamongodomongoscon soporte para TLS)
security.authentication.saslSupportedMechsReceivedNuevo en la versión 5.0.
La cantidad de veces que una solicitud de
helloincluye un campohello.saslSupportedMechsválido.
security.authentication.mechanismsUn documento que informa sobre la cantidad de veces que se ha utilizado un mecanismo de autenticación determinado para autenticarse en la instancia de
mongodomongos. Los valores en el documento distinguen entre la autenticación estándar y la autenticación especulativa. [1]Nota
Los campos en el documento
mechanismsdependen de la configuración del parámetroauthenticationMechanisms. El documentomechanismsincluye un campo para cada mecanismo de autenticación compatible con su instancia demongodomongos.El siguiente ejemplo muestra la forma del documento
mechanismspara una implementación que sólo admite la autenticación X.509.
security.authentication.mechanisms.MONGODB-X509Un documento que informa sobre el número de veces que X.509 se ha utilizado para autenticarse ante la instancia de
mongodomongos.Incluye la cantidad total de intentos de autenticación
X.509y el subconjunto de esos intentos que fueron especulativos. [1]
security.authentication.mechanisms.MONGODB-X509.speculativeAuthenticate.receivedNúmero de intentos de autenticación especulativa recibidos usando X.509. Incluye intentos de autenticación especulativa exitosos y fallidos. [1]
security.authentication.mechanisms.MONGODB-X509.speculativeAuthenticate.successfulNúmero de intentos de autenticación exitosos y especulativos recibidos usando X.509. [1]
security.authentication.mechanisms.MONGODB-X509.authenticate.receivedNúmero de intentos de autenticación exitosos y fallidos recibidos usando X.509. Este valor incluye intentos especulativos de autenticación recibidos a través de X.509.
security.authentication.mechanisms.MONGODB-X509.authenticate.successfulNúmero de intentos de autenticación exitosos recibidos usando x.508. Este valor incluye intentos exitosos de autenticación especulativa que utilizaron X.509.
[1] (1, 2, 3, 4) La autenticación especulativa minimiza la cantidad de viajes de ida y vuelta en la red durante el proceso de autenticación para optimizar el rendimiento. security.SSLServerSubjectNameEl nombre del sujeto asociado con el certificado TLS/SSL de la instancia
mongod/mongos.
fragmentación
{ configsvrConnectionString : 'csRS/cfg1.example.net:27019,cfg2.example.net:27019,cfg2.example.net:27019', lastSeenConfigServerOpTime : { ts : <timestamp>, t : Long("<num>") }, maxChunkSizeInBytes : Long("<num>") }
shardingUn documento con datos sobre el clúster particionado. El
lastSeenConfigServerOpTimeestá presente solo para unmongoso un Nodo de partición, no para un servidor de configuración.
sharding.lastSeenConfigServerOpTimeEl último optime del CSRS primario que ha visto el
mongoso el nodo de partición. El documento optime incluye:ts, la marca de tiempo de la operación.t, latermen la cual la operación fue generada originalmente en el primario.
El
lastSeenConfigServerOpTimesolo está presente si el clúster particionado utiliza CSRS.
sharding.maxChunkSizeInBytesEl límite de tamaño máximo para un rango a migrar. Si este valor se actualizó recientemente en el servidor de configuración, es posible que el
maxChunkSizeInBytesno refleje el valor más reciente.
shardingStatistics
Cuando se ejecuta en un nodo de una partición:
shardingStatistics : { countStaleConfigErrors : Long("<num>"), countDonorMoveChunkStarted : Long("<num>"), countDonorMoveChunkCommitted : Long("<num>"), countDonorMoveChunkAborted : Long("<num>"), totalDonorMoveChunkTimeMillis : Long("<num>"), totalDonorChunkCloneTimeMillis : Long("<num>"), totalCriticalSectionCommitTimeMillis : Long("<num>"), totalCriticalSectionTimeMillis : Long("<num>"), countDocsClonedOnRecipient : Long("<num>"), countBytesClonedOnRecipient : Long("<num>"), countDocsClonedOnCatchUpOnRecipient : Long("<num>"), countBytesClonedOnCatchUpOnRecipient : Long("<num>"), countDocsClonedOnDonor : Long("<num>"), countRecipientMoveChunkStarted : Long("<num>"), countDocsDeletedByRangeDeleter : Long("<num>"), countDonorMoveChunkLockTimeout : Long("<num>"), unfinishedMigrationFromPreviousPrimary : Long("<num>"), chunkMigrationConcurrency : Long("<num>"), unauthorizedDirectShardOps : Long("<num>"), catalogCache : { numDatabaseEntries : Long("<num>"), numCollectionEntries : Long("<num>"), countStaleConfigErrors : Long("<num>"), totalRefreshWaitTimeMicros : Long("<num>"), numActiveIncrementalRefreshes : Long("<num>"), countIncrementalRefreshesStarted : Long("<num>"), numActiveFullRefreshes : Long("<num>"), countFullRefreshesStarted : Long("<num>"), countFailedRefreshes : Long("<num>") }, rangeDeleterTasks : <num>, resharding : { countStarted : Long("1"), countSucceeded : Long("1"), countFailed : Long("0"), countCanceled : Long("0"), lastOpEndingChunkImbalance : Long("0"), active : { documentsCopied : Long("0"), bytesCopied : Long("0"), countWritesToStashCollections : Long("0"), countWritesDuringCriticalSection : Long("0"), countReadsDuringCriticalSection : Long("0"), oplogEntriesFetched : Long("0"), oplogEntriesApplied : Long("0"), insertsApplied : Long("0"), updatesApplied : Long("0"), deletesApplied : Long("0") }, oldestActive : { coordinatorAllShardsHighestRemainingOperationTimeEstimatedMillis : Long("0"), coordinatorAllShardsLowestRemainingOperationTimeEstimatedMillis : Long("0"), recipientRemainingOperationTimeEstimatedMillis : Long("0") }, latencies : { collectionCloningTotalRemoteBatchRetrievalTimeMillis : Long("0"), collectionCloningTotalRemoteBatchesRetrieved : Long("0"), collectionCloningTotalLocalInsertTimeMillis : Long("0"), collectionCloningTotalLocalInserts : Long("0"), oplogFetchingTotalRemoteBatchRetrievalTimeMillis : Long("0"), oplogFetchingTotalRemoteBatchesRetrieved : Long("0"), oplogFetchingTotalLocalInsertTimeMillis : Long("0"), oplogFetchingTotalLocalInserts : Long("0"), oplogApplyingTotalLocalBatchRetrievalTimeMillis : Long("0"), oplogApplyingTotalLocalBatchesRetrieved : Long("0"), oplogApplyingTotalLocalBatchApplyTimeMillis : Long("0"), oplogApplyingTotalLocalBatchesApplied : Long("0") }, currentInSteps : { countInstancesInCoordinatorState1Initializing : Long("0"), countInstancesInCoordinatorState2PreparingToDonate : Long("0"), countInstancesInCoordinatorState3Cloning : Long("0"), countInstancesInCoordinatorState4Applying : Long("0"), countInstancesInCoordinatorState5BlockingWrites : Long("0"), countInstancesInCoordinatorState6Aborting : Long("0"), countInstancesInCoordinatorState7Committing : Long("-1"), countInstancesInRecipientState1AwaitingFetchTimestamp : Long("0"), countInstancesInRecipientState2CreatingCollection : Long("0"), countInstancesInRecipientState3Cloning : Long("0"), countInstancesInRecipientState4Applying : Long("0"), countInstancesInRecipientState5Error : Long("0"), countInstancesInRecipientState6StrictConsistency : Long("0"), countInstancesInRecipientState7Done : Long("0"), countInstancesInDonorState1PreparingToDonate : Long("0"), countInstancesInDonorState2DonatingInitialData : Long("0"), countInstancesInDonorState3DonatingOplogEntries : Long("0"), countInstancesInDonorState4PreparingToBlockWrites : Long("0"), countInstancesInDonorState5Error : Long("0"), countInstancesInDonorState6BlockingWrites : Long("0"), countInstancesInDonorState7Done : Long("0") } } } },
Cuando se ejecuta en un mongos:
shardingStatistics : { numHostsTargeted: { find : { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") }, insert: { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") }, update: { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") }, delete: { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") }, aggregate: { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") } } }, catalogCache : { numDatabaseEntries : Long("<num>"), numCollectionEntries : Long("<num>"), countStaleConfigErrors : Long("<num>"), totalRefreshWaitTimeMicros : Long("<num>"), numActiveIncrementalRefreshes : Long("<num>"), countIncrementalRefreshesStarted : Long("<num>"), numActiveFullRefreshes : Long("<num>"), countFullRefreshesStarted : Long("<num>"), countFailedRefreshes : Long("<num>") } }
Cuando se ejecuta en un servidor de configuración:
shardingStatistics : { numShardedCollections : Long("<num>") }
shardingStatisticsUn documento que contiene métricas sobre la actualización de metadatos en clústeres particionados.
shardingStatistics.countStaleConfigErrorsLa cantidad total de veces que los subprocesos encuentran una excepción de configuración obsoleta. Dado que una excepción de configuración obsoleta activa una actualización de los metadatos, esta cantidad es aproximadamente proporcional a la cantidad de actualizaciones de metadatos.
Solo está presente cuando se ejecuta en una partición.
shardingStatistics.countDonorMoveChunkStartedLa cantidad total de veces que MongoDB inicia el comando
moveChunko el comandomoveRangeen el nodo primario de la partición como parte del procedimiento de migración de rangos. Este número creciente no considera si las migraciones de fragmentos son exitosas o no.Solo está presente cuando se ejecuta en una partición.
shardingStatistics.countDonorMoveChunkCommittedLa cantidad total de migraciones de fragmentos que MongoDB confirma en el nodo primario de la partición.
La migración de fragmentos se lleva a cabo mediante los comandos
moveChunkymoveRangeen un procedimiento de migración de rangos.Solo disponible en una partición.
Disponible a partir de MongoDB 7.0 (y 6.3.2, 6.0.6 y 5.0.18).
shardingStatistics.countDonorMoveChunkAbortedLa cantidad total de migraciones de fragmentos que MongoDB aborta en el nodo primario de la partición.
La migración de fragmentos se lleva a cabo mediante los comandos
moveChunkymoveRangeen un procedimiento de migración de rangos.Solo disponible en una partición.
Disponible a partir de MongoDB 7.0 (y 6.3.2, 6.0.6 y 5.0.18).
shardingStatistics.totalDonorMoveChunkTimeMillisTiempo acumulado en milisegundos para mover fragmentos desde la partición actual a otra partición. Para cada migración de fragmentos, el tiempo comienza cuando se inicia un comando
moveRangeomoveChunk, y termina cuando el fragmento se mueve a otra partición en un procedimiento de migración de rangos.Solo disponible en una partición.
Disponible a partir de MongoDB 7.0 (y 6.3.2, 6.0.6 y 5.0.18).
shardingStatistics.totalDonorChunkCloneTimeMillisEl tiempo acumulado, en milisegundos, que la fase de clonación del procedimiento de migración de rangos tarda en el nodo primario de la partición. Específicamente, para cada migración en esta partición, el tiempo rastreado comienza con los comandos
moveRangeymoveChunk, y termina antes de que la partición de destino entre en una fasecatchuppara aplicar los cambios que ocurrieron durante el procedimiento de migración de rangos.Solo está presente cuando se ejecuta en una partición.
shardingStatistics.totalCriticalSectionCommitTimeMillisEl tiempo acumulado, en milisegundos, que la fase de actualización de metadatos del procedimiento de migraciones de rangos tarda en el nodo primario de la partición. Durante la fase de actualización de metadatos, MongoDB bloquea todas las operaciones en la colección.
Solo está presente cuando se ejecuta en una partición.
shardingStatistics.totalCriticalSectionTimeMillisEl tiempo acumulado, en milisegundos, que la fase de sincronización y la fase de actualización de metadatos del procedimiento de migración de rangos tarda en el nodo primario de la partición.
Para calcular la duración de la fase de recuperación, resta
totalCriticalSectionCommitTimeMillisdetotalCriticalSectionTimeMillis:totalCriticalSectionTimeMillis - totalCriticalSectionCommitTimeMillis Solo está presente cuando se ejecuta en una partición.
shardingStatistics.countDocsClonedOnRecipientEl recuento acumulado y siempre en aumento de documentos que MongoDB clona en el nodo primario de la partición receptora.
Solo está presente cuando se ejecuta en una partición.
shardingStatistics.countBytesClonedOnRecipientLa cantidad acumulada de bytes que MongoDB clona en el nodo primario de la partición receptora durante el procedimiento de migración de rangos.
Para obtener más detalles sobre la sincronización de datos, consulte Sincronización de datos del set de réplicas.
Solo disponible en una partición.
Disponible a partir de MongoDB 7.0 (y 6.3.2, 6.0.6 y 5.0.18).
shardingStatistics.countDocsClonedOnCatchUpOnRecipientLa cantidad acumulada de documentos que MongoDB clona en el nodo primario de la partición receptora durante la fase de sincronización del procedimiento de migración de rangos.
Para obtener más detalles sobre la sincronización de datos, consulte Sincronización de datos del set de réplicas.
Solo disponible en una partición.
Disponible a partir de MongoDB 7.0 (y 6.3.2, 6.0.6 y 5.0.18).
shardingStatistics.countBytesClonedOnCatchUpOnRecipientLa cantidad acumulada de bytes que MongoDB clona en el nodo primario de la partición receptora durante la fase de sincronización del procedimiento de migración de rangos.
Para obtener más detalles sobre la sincronización de datos, consulte Sincronización de datos del set de réplicas.
Solo disponible en una partición.
Disponible a partir de MongoDB 7.0 (y 6.3.2, 6.0.6 y 5.0.18).
shardingStatistics.countDocsClonedOnDonorEl recuento acumulado y siempre en aumento de documentos que MongoDB clona en el nodo primario de la partición donante.
Solo está presente cuando se ejecuta en una partición.
shardingStatistics.countRecipientMoveChunkStartedEl recuento acumulado y siempre en aumento de fragmentos que este nodo, actuando como primario de la partición receptora, ha comenzado a recibir (ya sea que la transferencia haya sido exitosa o no).
Solo está presente cuando se ejecuta en una partición.
shardingStatistics.countDocsDeletedByRangeDeleterEl recuento acumulado y siempre en aumento de documentos que MongoDB borra en el nodo primario de la partición donante durante la migración de fragmentos.
Solo está presente cuando se ejecuta en una partición.
Cambiado en la versión 7.1.
shardingStatistics.countDonorMoveChunkLockTimeoutEl recuento acumulado y siempre en aumento de migraciones de fragmentos que MongoDB aborta en el nodo primario de la partición donante, debido a los tiempos de espera en la adquisición de bloqueos.
Solo está presente cuando se ejecuta en una partición.
shardingStatistics.unfinishedMigrationFromPreviousPrimaryLa cantidad de migraciones no completadas que el nodo primario anterior abandona después de una elección. Este valor solo se actualiza después de que el
mongodrecién elegido completa la transición a primario.Solo está presente cuando se ejecuta en una partición.
shardingStatistics.chunkMigrationConcurrencyEl número de hilos en el fragmento de origen y el fragmento receptor para realizar operaciones de migración de fragmentos.
Solo está presente cuando se ejecuta en una partición.
Disponible a partir de MongoDB 6.3 (y 5.0.15).
shardingStatstics.unauthorizedDirectShardOpsEl número de operaciones directas de partición intentadas sin la autorización suficiente. Si la operación genera una advertencia en lugar de un error,
unauthorizedDirectShardOpspodría contarlo más de una vez.En un clúster particionado con una sola partición, puedes controlar este contador estableciendo el parámetro
directConnectionChecksWithSingleShardentrue.
shardingStatistics.catalogCacheUn documento con estadísticas sobre la caché de información de enrutamiento del clúster.
shardingStatistics.catalogCache.numDatabaseEntriesLa cantidad total de entradas de la base de datos que están actualmente en la caché del catálogo.
shardingStatistics.catalogCache.numCollectionEntriesLa cantidad total de entradas de colecciones (en todas las bases de datos) que están actualmente en la caché del catálogo.
shardingStatistics.catalogCache.countStaleConfigErrorsLa cantidad total de veces que los subprocesos encuentran una excepción de configuración obsoleta. Una excepción de configuración obsoleta activa una actualización de los metadatos.
shardingStatistics.catalogCache.totalRefreshWaitTimeMicrosEl tiempo acumulado, en microsegundos, que los subprocesos tuvieron que esperar para una actualización de los metadatos.
shardingStatistics.catalogCache.numActiveIncrementalRefreshesLa cantidad de actualizaciones incrementales de la caché del catálogo que están actualmente pendientes de completarse.
shardingStatistics.countIncrementalRefreshesStartedLa cantidad acumulada de actualizaciones incrementales que se han iniciado.
shardingStatistics.catalogCache.numActiveFullRefreshesLa cantidad de actualizaciones completas de la caché del catálogo que están actualmente esperando completarse.
shardingStatistics.catalogCache.countFullRefreshesStartedLa cantidad acumulada de actualizaciones completas que se han comenzado.
shardingStatistics.catalogCache.countFailedRefreshesEl número acumulado de actualizaciones completas o incrementales que han fallado.
shardingStatistics.rangeDeleterTasksEl total actual de las tareas de borrado de rangos de fragmentos en cola que están listas para ejecutarse o que se están ejecutando como parte del procedimiento de migración de rangos.
Inspeccione los documentos de la colección
config.rangeDeletionspara obtener información sobre los rangos de fragmentos que están pendientes de eliminación de una partición después de una migración de fragmentos.Solo presente cuando se ejecuta en un Nodo del fragmento.
shardingStatistics.reshardingUn documento con estadísticas sobre operaciones de redistribución.
Cada partición devuelve sus propias estadísticas de operaciones de redistribución. Si una partición no está involucrada en una operación de redistribución, esa partición no contendrá estadísticas sobre la operación de redistribución.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.countStartedLa suma de
countSucceeded,countFailedycountCanceled. La suma se incrementa aún más en1si una operación de repartición ha comenzado pero aún no se ha completado. La suma se establece en 0 cuandomongodse inicia o se reinicia.Solo está presente cuando se ejecuta en una partición o en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.countSucceededCantidad de operaciones de redistribución exitosas. La cantidad se establece en 0 cuando
mongodse inicia o se reinicia.Solo está presente cuando se ejecuta en una partición o en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.countFailedCantidad de operaciones de redistribución fallidas. La cantidad se establece en 0 cuando
mongodse inicia o se reinicia.Solo está presente cuando se ejecuta en una partición o en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.countCanceledCantidad de operaciones de redistribución canceladas. La cantidad se establece en 0 cuando
mongodse inicia o se reinicia.Solo está presente cuando se ejecuta en una partición o en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.active.documentsCopiedCantidad de documentos copiados de particiones donantes a particiones receptoras para la operación de redistribución actual. La cantidad se establece en 0 cuando se inicia una nueva operación de redistribución.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Nuevo en la versión 5.0.
Se actualizó en la versión 6.1
shardingStatistics.resharding.active.bytesCopiedNúmero de bytes copiados de particiones donantes a particiones receptoras para la operación de redistribución actual. La cantidad se establece en 0 cuando se inicia una nueva operación de redistribución.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Nuevo en la versión 5.0.
Se actualizó en la versión 6.1
shardingStatistics.resharding.active.countWritesToStashCollectionsDurante la redistribución, la cantidad de guardados en las colecciones de reserva receptoras.
Nuevo en la versión 6.1.
shardingStatistics.resharding.active.countWritesDuringCriticalSectionCantidad de guardados realizados en la sección crítica para la operación de redistribución actual. La sección crítica impide nuevos guardados entrantes en la colección que actualmente se está redistribuyendo. La cantidad se establece en 0 cuando se inicia una nueva operación de redistribución.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Nuevo en la versión 5.0.
Se actualizó en la versión 6.1
shardingStatistics.resharding.active.countReadsDuringCriticalSectionDurante la redistribución, la cantidad de lecturas intentadas en la sección crítica del donante.
Nuevo en la versión 6.1.
shardingStatistics.resharding.active.oplogEntriesFetchedCantidad de entradas obtenidas del oplog para la operación de redistribución actual. La cantidad se establece en 0 cuando se inicia una nueva operación de redistribución.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Se actualizó en la versión 6.1
shardingStatistics.resharding.active.oplogEntriesAppliedCantidad de entradas aplicadas al oplog para la operación de redistribución actual. La cantidad se establece en 0 cuando se inicia una nueva operación de redistribución.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Nuevo en la versión 5.0.
Se actualizó en la versión 6.1
shardingStatistics.resharding.active.insertsAppliedLa cantidad total de operaciones de inserción aplicadas durante la redistribución.
Nuevo en la versión 6.1.
shardingStatistics.resharding.active.updatesAppliedLa cantidad total de operaciones de actualización aplicadas durante la redistribución.
Nuevo en la versión 6.1.
shardingStatistics.resharding.active.deletesAppliedLa cantidad total de operaciones de borrado aplicadas durante la redistribución.
Nuevo en la versión 6.1.
shardingStatistics.resharding.oldestActive.coordinatorAllShardsHighestRemainingOperationTimeEstimatedMillisCalculado en todas las particiones, la estimación más alta del número de segundos restantes. Si no se puede calcular la estimación de tiempo, el valor se establece en -1.
Nuevo en la versión 6.1.
shardingStatistics.resharding.oldestActive.coordinatorAllShardsLowestRemainingOperationTimeEstimatedMillisCalculado en todas las particiones, la estimación más baja del número de segundos restantes. Si no se puede calcular la estimación de tiempo, el valor se establece en -1.
Nuevo en la versión 6.1.
shardingStatistics.resharding.oldestActive.recipientRemainingOperationTimeEstimatedMillisTiempo restante estimado, en milisegundos, para la operación de redistribución actual. Antes de la redistribución, o cuando no se puede calcular el tiempo, el valor se establece en -1.
Si una partición está involucrada en múltiples operaciones de redistribución, este campo contiene la estimación del tiempo restante para la operación de redistribución más antigua en la que esta partición es un receptor.
Nuevo en la versión 6.1.
shardingStatistics.resharding.oldestActive.totalOperationTimeElapsedMillisTiempo total transcurrido, en milisegundos, para la operación de redistribución actual. El tiempo se establece en 0 cuando se inicia una nueva operación de redistribución.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.latenciesMétricas de tiempo para operaciones de redistribución.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.collectionCloningTotalRemoteBatchRetrievalTimeMillisTiempo total que los destinatarios dedicaron a recuperar agrupaciones de documentos de los donantes, en milisegundos.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.collectionCloningTotalRemoteBatchesRetrievedNúmero total de agrupamientos de documentos que los destinatarios recuperaron de los donantes.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.collectionCloningTotalLocalInsertTimeMillisTiempo total que los receptores dedicaron a insertar agrupaciones de documentos de donantes, en milisegundos.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.collectionCloningTotalLocalInsertsNúmero total de agrupaciones de documentos de donantes que los destinatarios han insertado.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.oplogFetchingTotalRemoteBatchRetrievalTimeMillisTiempo total que los destinatarios pasaron recuperando lotes de entradas del oplog desde los donantes, en milisegundos.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.oplogFetchingTotalRemoteBatchesRetrievedNúmero total de entradas de oplog agrupadas que los receptores recuperaron de los donantes.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.oplogFetchingTotalLocalInsertTimeMillisEl tiempo total que los destinatarios dedicaron a insertar agrupaciones de entradas de oplog de donantes, en milisegundos.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.oplogFetchingTotalLocalInsertsNúmero total de lotes de entradas de OpLog de donantes que los destinatarios insertaron.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.oplogApplyingTotalLocalBatchRetrievalTimeMillisTiempo total que los destinatarios dedicaron a recuperar lotes de entradas de oplog que se insertaron durante la recuperación, en milisegundos.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.oplogApplyingTotalLocalBatchesRetrievedCantidad total de agrupaciones de entradas de oplog que se insertaron durante la recuperación y que los destinatarios recuperaron.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.oplogApplyingTotalLocalBatchApplyTimeMillisTiempo total que los destinatarios dedicaron a aplicar agrupaciones de entradas de oplog, en milisegundos.
Nuevo en la versión 6.1.
shardingStatistics.resharding.latencies.oplogApplyingTotalLocalBatchesAppliedNúmero total de lotes de entradas de oplog que los destinatarios aplicaron.
Nuevo en la versión 6.1.
shardingStatistics.resharding.totalApplyTimeElapsedMillisTiempo total transcurrido, en milisegundos, para el paso de aplicación de la operación de redistribución actual. En el paso de aplicación, las particiones receptoras modifican sus datos basándose en los nuevos guardados entrantes de particiones donantes. El tiempo se establece en 0 cuando se inicia una nueva operación de redistribución.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.totalCriticalSectionTimeElapsedMillisTiempo total transcurrido, en milisegundos, para la sección crítica de la operación de redistribución actual. La sección crítica impide nuevos guardados entrantes en la colección que actualmente se está redistribuyendo. El tiempo se establece en 0 cuando se inicia una nueva operación de redistribución.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.donorStateEstado de la partición donante para la operación de redistribución actual. La cantidad se establece en 0 cuando se inicia una nueva operación de redistribución.
Número devueltoSignificadoDescripción0
unusedLa partición no es un donante en la operación de redistribución actual.
1
preparing-to-donateLa partición donante se está preparando para donar datos a las particiones receptoras.
2
donating-initial-dataEl fragmento donante está transfiriendo datos a los fragmentos receptores.
3
donating-oplog-entriesLa partición donante está donando entradas de oplog a las particiones receptoras.
4
preparing-to-block-writesLa partición donante está a punto de impedir nuevas operaciones de guardado en la colección que se está redistribuyendo.
5
errorSe ha producido un error durante la operación de redistribución de fragmentos.
6
blocking-writesLa partición donante está impidiendo nuevas operaciones de guardado entrantes y ha notificado a todas las particiones receptoras que se han impedido nuevos guardados entrantes.
7
doneLa partición donante ha descartado la antigua colección particionada y la operación de redistribución ha finalizado.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.recipientStateEstado de la partición receptora para la operación de redistribución actual. La cantidad se establece en 0 cuando se inicia una nueva operación de redistribución.
Número devueltoSignificadoDescripción0
unusedLa partición no es un destinatario en la operación actual de redistribución.
1
awaiting-fetch-timestampLa partición receptora está esperando a que las particiones donantes estén preparadas para donar sus datos
2
creating-collectionLa partición receptora está creando la nueva colección particionada.
3
cloningLa partición receptora está recibiendo datos de las particiones donantes.
4
applyingLa partición receptora está aplicando entradas del oplog para modificar su copia de los datos en función de las nuevas operaciones de guardado entrantes de las particiones donantes.
5
errorSe ha producido un error durante la operación de redistribución de fragmentos.
6
strict-consistencyLa partición receptora tiene todos los cambios de datos almacenados en una colección temporal.
7
doneLa operación de redistribución está completa.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración. Devuelve 0 en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.numHostsTargetedIndica la cantidad de particiones destinadas a operaciones de
CRUDy comandos de agregación de datos. Cuando se ejecute una operación deCRUDo un comando de agregación de datos, se incrementarán las siguientes métricas.NombreDescripciónallShardsUn comando dirigido a todas las particiones
manyShardsUn comando dirigido a más de una partición
oneShardUn comando dirigido a una partición
unshardedSe ejecutó un comando en una colección no particionada
Nota
Ejecutar el comando
serverStatusenmongosproporcionará perspectiva sobre las operaciones CRUD y de agregación que se ejecutan en un clúster particionado.Las operaciones de particiones múltiples pueden ser dispersión-recopilación o específicas de la partición. Las operaciones de dispersión-recopilación de múltiples particiones pueden consumir más recursos. Al usar las
shardingStatistics.numHostsTargetedmétricas, puedes ajustar los queries de agregación que se ejecutan en un clúster.
shardingStatistics.numShardedCollectionsIndica la cantidad de colecciones fragmentadas en el clúster.
Sólo está presente cuando se ejecuta en un servidor de configuración.
Nuevo en la versión 6.2.
shardingStatistics.resharding.coordinatorStateEstado del coordinador de redistribución para la operación de redistribución actual. El coordinador de redistribución es un subproceso que se ejecuta en el servidor de configuración primario. La cantidad se establece en 0 cuando se inicia una nueva operación de redistribución.
Número devueltoSignificadoDescripción0
unusedLa partición no es el coordinador en la operación de redistribución actual.
1
initializingEl coordinador de redistribución ha insertado el documento del coordinador en
config.reshardingOperationsy ha agregado elreshardingFieldsa la entradaconfig.collectionspara la colección original.2
preparing-to-donateEl coordinador de redistribución
ha creado una entrada
config.collectionspara la colección de redistribución temporal.ha insertado entradas en
config.chunkspara los rangos basados en la nueva clave de partición.ha insertado entradas en
config.tagspara cualquier zona asociada con la nueva clave de partición.
El coordinador informa a las particiones participantes que comiencen la operación de redistribución. A continuación, el coordinador espera hasta que todas las particiones donantes hayan elegido un
minFetchTimestampy estén listas para donar.3
cloningEl coordinador de redistribución informa a las particiones donantes que deben donar datos a las particiones receptoras. El coordinador espera a que todas las particiones receptoras terminen de clonar los datos de la partición donante.
4
applyingEl coordinador de redistribución informa a las particiones receptoras que modifiquen sus copias de datos basándose en nuevos guardados entrantes de particiones donantes. El coordinador espera a que todas las particiones receptoras terminen de aplicar las entradas de oplog.
5
blocking-writesEl coordinador de redistribución informa a las particiones donantes que eviten que se vuelvan a redistribuir las nuevas operaciones de guardado entrantes a la colección. A continuación, el coordinador espera a que todas las particiones receptoras hayan recibido todos los cambios de datos.
6
abortingSe produjo un error irrecuperable durante la operación de redistribución o se ejecutó el comando
abortReshardCollection(o el métodosh.abortReshardCollection()).6
committingEl coordinador de redistribución remueve la entrada
config.collectionspara la colección de redistribución temporal. A continuación, el coordinador agrega elrecipientFieldsa la entrada de la colección de origen.Solo está presente cuando se ejecuta en una partición o en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.opStatusEstado de la operación de redistribución actual.
Número devueltoDescripción-1
La operación de redistribución no está en curso.
0
La operación de redistribución fue exitosa.
1
La operación de redistribución falló.
2
Operación de redistribución cancelada.
Solo está presente cuando se ejecuta en una partición o en un servidor de configuración.
Nuevo en la versión 5.0.
shardingStatistics.resharding.lastOpEndingChunkImbalanceEste campo contiene la diferencia numérica más alta para (
maxNumChunksInShard - minNumChunksInShard) entre todas las zonas para la colección que fue procesada por la operación de redistribución más reciente.Solo se actualiza en los servidores de configuración.
Nuevo en la versión 5.0.
shardedIndexConsistency
shardedIndexConsistency : { numShardedCollectionsWithInconsistentIndexes : Long("<num>") },
shardedIndexConsistencyDisponible solo en instancias de servidores de configuración.
Un documento que proporciona los resultados de las verificaciones de coherencia de índice para colecciones particionadas.
Las métricas devueltas son significativas solo cuando se ejecuten en el primario del set de réplicas del servidor de configuración para un clúster.
Tip
enableShardedIndexConsistencyCheckparametershardedIndexConsistencyCheckIntervalMSparameter
shardedIndexConsistency.numShardedCollectionsWithInconsistentIndexesDisponible solo en instancias de servidores de configuración.
Cantidad de colecciones particionadas cuyos índices son inconsistentes entre las particiones. Una colección particionada tiene un índice inconsistente si la colección no tiene exactamente los mismos índices (incluidas las opciones de índice) en cada partición que contiene fragmentos de la colección.
Para investigar si una colección fragmentada tiene índices inconsistentes, consulte Buscar índices inconsistentes entre fragmentos.
Las métricas devueltas son significativas solo cuando se ejecuten en el primario del set de réplicas del servidor de configuración para un clúster.
Tip
enableShardedIndexConsistencyCheckparametershardedIndexConsistencyCheckIntervalMSparameter
storageEngine
storageEngine : { name : <string>, supportsCommittedReads : <boolean>, persistent : <boolean> },
storageEngine.supportsCommittedReadsUn operador booleano que indica si el motor de almacenamiento admite nivel de consistencia de lectura
"majority".
storageEngine.persistentUn operador booleano que indica si el motor de almacenamiento persiste o no los datos en el disco.
Transacciones
transactions : { retriedCommandsCount : Long("<num>"), retriedStatementsCount : Long("<num>"), transactionsCollectionWriteCount : Long("<num>"), currentActive : Long("<num>"), currentInactive : Long("<num>"), currentOpen : Long("<num>"), totalAborted : Long("<num>"), totalCommitted : Long("<num>"), totalStarted : Long("<num>"), totalPrepared : Long("<num>"), totalPreparedThenCommitted : Long("<num>"), totalPreparedThenAborted : Long("<num>"), currentPrepared : Long("<num>"), lastCommittedTransaction : <document> },
transactions : { currentOpen : Long("<num>"), currentActive : Long("<num>"), currentInactive : Long("<num>"), totalStarted : Long("<num>"), totalCommitted : Long("<num>"), totalAborted : Long("<num>"), abortCause : { <String1> : Long("<num>"), <String2> : Long("<num>"), ... }, totalContactedParticipants : Long("<num>"), totalParticipantsAtCommit : Long("<num>"), totalRequestsTargeted : Long("<num>"), commitTypes : { noShards : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, singleShard : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, singleWriteShard : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, readOnly : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, twoPhaseCommit : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, recoverWithToken : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") } } },
transactionsCuando se ejecuta en un
mongod, un documento con datos sobre las escrituras reintentables y las transacciones.Cuando se ejecuta en un
mongos, se genera un documento con datos sobre las transacciones ejecutadas en la instancia.
transactions.retriedCommandsCountDisponible únicamente en mongod.
La cantidad total de reintentos que se han recibido después de que el comando de escritura reintentable correspondiente ya se haya confirmado. Es decir, se intenta hacer una escritura reintentable, aunque la escritura haya tenido éxito previamente y tenga un registro asociado para la transacción y la sesión en la colección
config.transactions, como cuando se pierde la respuesta inicial de escritura al cliente.Nota
MongoDB no vuelve a ejecutar las escrituras confirmadas.
El total es en todas las sesiones.
El total no incluye ninguna escritura reintentable que pueda producirse internamente como parte de una migración de fragmentos.
transactions.retriedStatementsCountDisponible únicamente en mongod.
El número total de instrucciones de guardar asociadas con los comandos reintentados en
transactions.retriedCommandsCount.Nota
MongoDB no vuelve a ejecutar las escrituras confirmadas.
El total no incluye ninguna escritura reintentable que pueda producirse internamente como parte de una migración de fragmentos.
transactions.transactionsCollectionWriteCountDisponible únicamente en mongod.
La cantidad de guardado en la colección
config.transactions, que se activan cuando se confirma una nueva instrucción de escritura reintentable.Para los comandos de actualización y borrado, dado que solo las operaciones de un único documento son reintentables, hay un guardado por instrucción.
Para las operaciones de inserción, se realiza un guardado por cada agrupación de documentos insertados, excepto cuando un fallo provoca que cada documento se inserte por separado.
El total incluye guardados en la colección
config.transactionsde un servidor que se produce como parte de una migración.
transactions.currentActiveDisponible tanto en mongod como en mongos.
La cantidad total de transacciones abiertas que están ejecutando un comando actualmente.
transactions.currentInactiveDisponible tanto en mongod como en mongos.
La cantidad total de transacciones abiertas que no están ejecutando un comando actualmente.
transactions.currentOpenDisponible tanto en mongod como en mongos.
La cantidad total de transacciones abiertas. Una transacción se inicia cuando se ejecuta el primer comando como parte de esa transacción y permanece abierta hasta que la transacción se confirma o se aborta.
transactions.totalAbortedPara el
mongod, la cantidad total de transacciones abortadas en esta instancia desde su último inicio.Para el
mongos, la cantidad total de transacciones abortadas a través de esta instancia desde su último inicio.
transactions.totalCommittedPara el
mongod, la cantidad total de transacciones confirmadas en la instancia desde su último inicio.Para el
mongos, la cantidad total de transacciones confirmadas a través de esta instancia desde su último inicio.
transactions.totalStartedPara el
mongod, la cantidad total de transacciones iniciadas en esta instancia desde su último inicio.Para el
mongos, la cantidad total de transacciones iniciadas en esta instancia desde su último inicio.
transactions.abortCauseDisponible únicamente en mongos.
Desglose del
transactions.totalAbortedpor causa. Si un cliente emite unabortTransactionexplícito, la causa se indica comoabort.Por ejemplo:
totalAborted : Long("5"), abortCause : { abort : Long("1"), DuplicateKey : Long("1"), StaleConfig : Long("3"), SnapshotTooOld : Long("1") },
transactions.totalContactedParticipantsDisponible únicamente en mongos.
La cantidad total de particiones contactadas para todas las transacciones iniciadas a través de este
mongosdesde su último inicio.La cantidad de particiones contactadas durante los procesos de transacción puede incluir aquellas particiones que tal vez no se incluyan como parte de la confirmación.
transactions.totalParticipantsAtCommitDisponible únicamente en mongos.
Cantidad total de particiones involucradas en la confirmación de todas las transacciones iniciadas a través de este
mongosdesde su último inicio.
transactions.totalRequestsTargetedDisponible únicamente en mongos.
Cantidad total de solicitudes de red dirigidas por el
mongoscomo parte de sus transacciones.
transactions.commitTypesDisponible únicamente en mongos.
Desglose de las confirmaciones por tipos. Por ejemplo:
noShards : { initiated : Long("0"), successful : Long("0"), successfulDurationMicros : Long("0") }, singleShard : { initiated : Long("5"), successful : Long("5"), successfulDurationMicros : Long("203118") }, singleWriteShard : { initiated : Long("0"), successful : Long("0"), successfulDurationMicros : Long("0") }, readOnly : { initiated : Long("0"), successful : Long("0"), successfulDurationMicros : Long("0") }, twoPhaseCommit : { initiated : Long("1"), successful : Long("1"), successfulDurationMicros : Long("179616") }, recoverWithToken : { initiated : Long("0"), successful : Long("0"), successfulDurationMicros : Long("0") } Los tipos de confirmación son:
TipoDescripciónnoShardsConfirmaciones de transacciones que no contactaron ninguna partición.
singleShardConfirmaciones de transacciones que afectaron a una única partición.
singleWriteShardConfirmaciones de transacciones que contactaron múltiples particiones, pero cuyas operaciones de escritura solo afectaron a una única partición.
readOnlyConfirmaciones de transacciones que solo incluyeron operaciones de lectura.
twoPhaseCommitConfirmaciones de transacciones que incluyeron escrituras en múltiples particiones
recoverWithTokenConfirmaciones que recuperaron el resultado de transacciones de otra instancia o después de que esta instancia se reiniciara.
Para cada tipo de confirmación, el comando devuelve las siguientes métricas:
MétricasDescripcióninitiatedCantidad total de veces que se iniciaron confirmaciones de este tipo.
successfulCantidad total de veces que las confirmaciones de este tipo tuvieron éxito.
successfulDurationMicrosTiempo total, en microsegundos, tomado por las confirmaciones exitosas de este tipo.
transactions.totalPreparedDisponible únicamente en mongod.
La cantidad total de transacciones en estado preparado en este servidor desde el último inicio del proceso
mongod.
transactions.totalPreparedThenCommittedDisponible únicamente en mongod.
La cantidad total de transacciones que se prepararon y confirmaron en este servidor desde el último inicio del proceso
mongod.
transactions.totalPreparedThenAbortedDisponible únicamente en mongod.
La cantidad total de transacciones que se prepararon y abortaron en este servidor desde el último inicio del proceso
mongod.
transactions.currentPreparedDisponible únicamente en mongod.
La cantidad actual de transacciones en estado preparado en este servidor.
transactions.lastCommittedTransactionDisponible únicamente en mongod.
Los detalles de la última transacción confirmada cuando el
mongodes primario.Cuando se devuelve desde un nodo secundario,
lastCommittedTransactiondevuelve los detalles de la última transacción confirmada cuando ese nodo secundario era un primario.lastCommittedTransaction : { operationCount : Long("1"), oplogOperationBytes : Long("211"), writeConcern : { w : "majority", wtimeout : 0 } } MétricasDescripciónoperationCountLa cantidad de operaciones de guardado en la transacción.
oplogOperationBytesEl tamaño de la entrada o entradas correspondientes del oplog para la transacción. [2]
writeConcernEl nivel de confirmación de escritura (write concern) utilizado para la transacción.
| [2] | MongoDB crea tantas entradas de oplog como sean necesarias para encapsular todas las operaciones de escritura en una transacción. Consulta Límite de tamaño de Oplog para obtener más detalles. |
transportSecurity
transportSecurity : { 1.0 : Long("<num>"), 1.1 : Long("<num>"), 1.2 : Long("<num>"), 1.3 : Long("<num>"), unknown : Long("<num>") },
watchdog
watchdog : { checkGeneration : Long("<num>"), monitorGeneration : Long("<num>"), monitorPeriod : <num> }
Nota
La sección watchdog solo está presente si se activa el Watchdog del nodo de almacenamiento.
watchdogUn documento de informe sobre el estado del Watchdog del nodo de almacenamiento.
watchdog.checkGenerationLa cantidad de veces que se han verificado los directorios desde el inicio. Los directorios se verifican varias veces cada
monitoringPeriod.
watchdog.monitorGenerationLa cantidad de veces que se ha examinado el estado de todos los sistemas de archivos utilizados por
mongod. Esto se incrementa una vez cadamonitoringPeriod.
watchdog.monitorPeriodEl valor establecido por
watchdogPeriodSeconds. Este es el período entre las verificaciones de estado.
WiredTiger
wiredTiger la información solo aparece si se utiliza el motor de almacenamiento WiredTiger. Algunas de las estadísticas se consolidan para el servidor.
{ uri : 'statistics:', async : { current work queue length : <num>, maximum work queue length : <num>, number of allocation state races : <num>, number of flush calls : <num>, number of operation slots viewed for allocation : <num>, number of times operation allocation failed : <num>, number of times worker found no work : <num>, total allocations : <num>, total compact calls : <num>, total insert calls : <num>, total remove calls : <num>, total search calls : <num>, total update calls : <num> }, block-manager : { blocks pre-loaded : <num>, blocks read : <num>, blocks written : <num>, bytes read : <num>, bytes written : <num>, bytes written for checkpoint : <num>, mapped blocks read : <num>, mapped bytes read : <num> }, cache : { application threads page read from disk to cache count : <num>, application threads page read from disk to cache time (usecs) : <num>, application threads page write from cache to disk count : <num>, application threads page write from cache to disk time (usecs) : <num>, bytes belonging to page images in the cache : <num>, bytes belonging to the cache overflow table in the cache : <num>, bytes currently in the cache : <num>, bytes dirty in the cache cumulative : <num>, bytes not belonging to page images in the cache : <num>, bytes read into cache : <num>, bytes written from cache : <num>, cache overflow cursor application thread wait time (usecs) : <num>, cache overflow cursor internal thread wait time (usecs) : <num>, cache overflow score : <num>, cache overflow table entries : <num>, cache overflow table insert calls : <num>, cache overflow table max on-disk size : <num>, cache overflow table on-disk size : <num>, cache overflow table remove calls : <num>, checkpoint blocked page eviction : <num>, eviction calls to get a page : <num>, eviction calls to get a page found queue empty : <num>, eviction calls to get a page found queue empty after locking : <num>, eviction currently operating in aggressive mode : <num>, eviction empty score : <num>, eviction passes of a file : <num>, eviction server candidate queue empty when topping up : <num>, eviction server candidate queue not empty when topping up : <num>, eviction server evicting pages : <num>, eviction server slept, because we did not make progress with eviction : <num>, eviction server unable to reach eviction goal : <num>, eviction server waiting for a leaf page : <num>, eviction server waiting for an internal page sleep (usec) : <num>, eviction server waiting for an internal page yields : <num>, eviction state : <num>, eviction walk target pages histogram - 0-9 : <num>, eviction walk target pages histogram - 10-31 : <num>, eviction walk target pages histogram - 128 and higher : <num>, eviction walk target pages histogram - 32-63 : <num>, eviction walk target pages histogram - 64-128 : <num>, eviction walks abandoned : <num>, eviction walks gave up because they restarted their walk twice : <num>, eviction walks gave up because they saw too many pages and found no candidates : <num>, eviction walks gave up because they saw too many pages and found too few candidates : <num>, eviction walks reached end of tree : <num>, eviction walks started from root of tree : <num>, eviction walks started from saved location in tree : <num>, eviction worker thread active : <num>, eviction worker thread created : <num>, eviction worker thread evicting pages : <num>, eviction worker thread removed : <num>, eviction worker thread stable number : <num>, files with active eviction walks : <num>, files with new eviction walks started : <num>, force re-tuning of eviction workers once in a while : <num>, forced eviction - pages evicted that were clean count : <num>, forced eviction - pages evicted that were clean time (usecs) : <num>, forced eviction - pages evicted that were dirty count : <num>, forced eviction - pages evicted that were dirty time (usecs) : <num>, forced eviction - pages selected because of too many deleted items count : <num>, forced eviction - pages selected count : <num>, forced eviction - pages selected unable to be evicted count : <num>, forced eviction - pages selected unable to be evicted time : <num>, hazard pointer blocked page eviction : <num>, hazard pointer check calls : <num>, hazard pointer check entries walked : <num>, hazard pointer maximum array length : <num>, in-memory page passed criteria to be split : <num>, in-memory page splits : <num>, internal pages evicted : <num>, internal pages split during eviction : <num>, leaf pages split during eviction : <num>, maximum bytes configured : <num>, maximum page size at eviction : <num>, modified pages evicted : <num>, modified pages evicted by application threads : <num>, operations timed out waiting for space in cache : <num>, overflow pages read into cache : <num>, page split during eviction deepened the tree : <num>, page written requiring cache overflow records : <num>, pages currently held in the cache : <num>, pages evicted by application threads : <num>, pages queued for eviction : <num>, pages queued for eviction post lru sorting : <num>, pages queued for urgent eviction : <num>, pages queued for urgent eviction during walk : <num>, pages read into cache : <num>, pages read into cache after truncate : <num>, pages read into cache after truncate in prepare state : <num>, pages read into cache requiring cache overflow entries : <num>, pages read into cache requiring cache overflow for checkpoint : <num>, pages read into cache skipping older cache overflow entries : <num>, pages read into cache with skipped cache overflow entries needed later : <num>, pages read into cache with skipped cache overflow entries needed later by checkpoint : <num>, pages requested from the cache : <num>, pages seen by eviction walk : <num>, pages selected for eviction unable to be evicted : <num>, pages walked for eviction : <num>, pages written from cache : <num>, pages written requiring in-memory restoration : <num>, percentage overhead : <num>, tracked bytes belonging to internal pages in the cache : <num>, tracked bytes belonging to leaf pages in the cache : <num>, tracked dirty bytes in the cache : <num>, tracked dirty pages in the cache : <num>, unmodified pages evicted : <num> }, capacity : { background fsync file handles considered : <num>, background fsync file handles synced : <num>, background fsync time (msecs) : <num>, bytes read : <num>, bytes written for checkpoint : <num>, bytes written for eviction : <num>, bytes written for log : <num>, bytes written total : <num>, threshold to call fsync : <num>, time waiting due to total capacity (usecs) : <num>, time waiting during checkpoint (usecs) : <num>, time waiting during eviction (usecs) : <num>, time waiting during logging (usecs) : <num>, time waiting during read (usecs) : <num> }, connection : { auto adjusting condition resets : <num>, auto adjusting condition wait calls : <num>, detected system time went backwards : <num>, files currently open : <num>, memory allocations : <num>, memory frees : <num>, memory re-allocations : <num>, pthread mutex condition wait calls : <num>, pthread mutex shared lock read-lock calls : <num>, pthread mutex shared lock write-lock calls : <num>, total fsync I/Os : <num>, total read I/Os : <num>, total write I/Os : <num> }, cursor : { cached cursor count : <num>, cursor bulk loaded cursor insert calls : <num>, cursor close calls that result in cache : <num>, cursor create calls : <num>, cursor insert calls : <num>, cursor insert key and value bytes : <num>, cursor modify calls : <num>, cursor modify key and value bytes affected : <num>, cursor modify value bytes modified : <num>, cursor next calls : <num>, cursor operation restarted : <num>, cursor prev calls : <num>, cursor remove calls : <num>, cursor remove key bytes removed : <num>, cursor reserve calls : <num>, cursor reset calls : <num>, cursor search calls : <num>, cursor search near calls : <num>, cursor sweep buckets : <num>, cursor sweep cursors closed : <num>, cursor sweep cursors examined : <num>, cursor sweeps : <num>, cursor truncate calls : <num>, cursor update calls : <num>, cursor update key and value bytes : <num>, cursor update value size change : <num>, cursors reused from cache : <num>, open cursor count : <num> }, data-handle : { connection data handle size : <num>, connection data handles currently active : <num>, connection sweep candidate became referenced : <num>, connection sweep dhandles closed : <num>, connection sweep dhandles removed from hash list : <num>, connection sweep time-of-death sets : <num>, connection sweeps : <num>, session dhandles swept : <num>, session sweep attempts : <num> }, lock : { checkpoint lock acquisitions : <num>, checkpoint lock application thread wait time (usecs) : <num>, checkpoint lock internal thread wait time (usecs) : <num>, dhandle lock application thread time waiting (usecs) : <num>, dhandle lock internal thread time waiting (usecs) : <num>, dhandle read lock acquisitions : <num>, dhandle write lock acquisitions : <num>, durable timestamp queue lock application thread time waiting (usecs) : <num>, durable timestamp queue lock internal thread time waiting (usecs) : <num>, durable timestamp queue read lock acquisitions : <num>, durable timestamp queue write lock acquisitions : <num>, metadata lock acquisitions : <num>, metadata lock application thread wait time (usecs) : <num>, metadata lock internal thread wait time (usecs) : <num>, read timestamp queue lock application thread time waiting (usecs) : <num>, read timestamp queue lock internal thread time waiting (usecs) : <num>, read timestamp queue read lock acquisitions : <num>, read timestamp queue write lock acquisitions : <num>, schema lock acquisitions : <num>, schema lock application thread wait time (usecs) : <num>, schema lock internal thread wait time (usecs) : <num>, table lock application thread time waiting for the table lock (usecs) : <num>, table lock internal thread time waiting for the table lock (usecs) : <num>, table read lock acquisitions : <num>, table write lock acquisitions : <num>, txn global lock application thread time waiting (usecs) : <num>, txn global lock internal thread time waiting (usecs) : <num>, txn global read lock acquisitions : <num>, txn global write lock acquisitions : <num> }, log : { busy returns attempting to switch slots : <num>, force archive time sleeping (usecs) : <num>, log bytes of payload data : <num>, log bytes written : <num>, log files manually zero-filled : <num>, log flush operations : <num>, log force write operations : <num>, log force write operations skipped : <num>, log records compressed : <num>, log records not compressed : <num>, log records too small to compress : <num>, log release advances write LSN : <num>, log scan operations : <num>, log scan records requiring two reads : <num>, log server thread advances write LSN : <num>, log server thread write LSN walk skipped : <num>, log sync operations : <num>, log sync time duration (usecs) : <num>, log sync_dir operations : <num>, log sync_dir time duration (usecs) : <num>, log write operations : <num>, logging bytes consolidated : <num>, maximum log file size : <num>, number of pre-allocated log files to create : <num>, pre-allocated log files not ready and missed : <num>, pre-allocated log files prepared : <num>, pre-allocated log files used : <num>, records processed by log scan : <num>, slot close lost race : <num>, slot close unbuffered waits : <num>, slot closures : <num>, slot join atomic update races : <num>, slot join calls atomic updates raced : <num>, slot join calls did not yield : <num>, slot join calls found active slot closed : <num>, slot join calls slept : <num>, slot join calls yielded : <num>, slot join found active slot closed : <num>, slot joins yield time (usecs) : <num>, slot transitions unable to find free slot : <num>, slot unbuffered writes : <num>, total in-memory size of compressed records : <num>, total log buffer size : <num>, total size of compressed records : <num>, written slots coalesced : <num>, yields waiting for previous log file close : <num> }, perf : { file system read latency histogram (bucket 1) - 10-49ms : <num>, file system read latency histogram (bucket 2) - 50-99ms : <num>, file system read latency histogram (bucket 3) - 100-249ms : <num>, file system read latency histogram (bucket 4) - 250-499ms : <num>, file system read latency histogram (bucket 5) - 500-999ms : <num>, file system read latency histogram (bucket 6) - 1000ms+ : <num>, file system write latency histogram (bucket 1) - 10-49ms : <num>, file system write latency histogram (bucket 2) - 50-99ms : <num>, file system write latency histogram (bucket 3) - 100-249ms : <num>, file system write latency histogram (bucket 4) - 250-499ms : <num>, file system write latency histogram (bucket 5) - 500-999ms : <num>, file system write latency histogram (bucket 6) - 1000ms+ : <num>, operation read latency histogram (bucket 1) - 100-249us : <num>, operation read latency histogram (bucket 2) - 250-499us : <num>, operation read latency histogram (bucket 3) - 500-999us : <num>, operation read latency histogram (bucket 4) - 1000-9999us : <num>, operation read latency histogram (bucket 5) - 10000us+ : <num>, operation write latency histogram (bucket 1) - 100-249us : <num>, operation write latency histogram (bucket 2) - 250-499us : <num>, operation write latency histogram (bucket 3) - 500-999us : <num>, operation write latency histogram (bucket 4) - 1000-9999us : <num>, operation write latency histogram (bucket 5) - 10000us+ : <num> }, reconciliation : { fast-path pages deleted : <num>, page reconciliation calls : <num>, page reconciliation calls for eviction : <num>, pages deleted : <num>, split bytes currently awaiting free : <num>, split objects currently awaiting free : <num> }, session : { open session count : <num>, session query timestamp calls : <num>, table alter failed calls : <num>, table alter successful calls : <num>, table alter unchanged and skipped : <num>, table compact failed calls : <num>, table compact successful calls : <num>, table create failed calls : <num>, table create successful calls : <num>, table drop failed calls : <num>, table drop successful calls : <num>, table import failed calls : <num>, table import successful calls : <num>, table rebalance failed calls : <num>, table rebalance successful calls : <num>, table rename failed calls : <num>, table rename successful calls : <num>, table salvage failed calls : <num>, table salvage successful calls : <num>, table truncate failed calls : <num>, table truncate successful calls : <num>, table verify failed calls : <num>, table verify successful calls : <num> }, thread-state : { active filesystem fsync calls : <num>, active filesystem read calls : <num>, active filesystem write calls : <num> }, thread-yield : { application thread time evicting (usecs) : <num>, application thread time waiting for cache (usecs) : <num>, connection close blocked waiting for transaction state stabilization : <num>, connection close yielded for lsm manager shutdown : <num>, data handle lock yielded : <num>, get reference for page index and slot time sleeping (usecs) : <num>, log server sync yielded for log write : <num>, page access yielded due to prepare state change : <num>, page acquire busy blocked : <num>, page acquire eviction blocked : <num>, page acquire locked blocked : <num>, page acquire read blocked : <num>, page acquire time sleeping (usecs) : <num>, page delete rollback time sleeping for state change (usecs) : <num>, page reconciliation yielded due to child modification : <num> }, transaction : { Number of prepared updates : <num>, Number of prepared updates added to cache overflow : <num>, Number of prepared updates resolved : <num>, durable timestamp queue entries walked : <num>, durable timestamp queue insert to empty : <num>, durable timestamp queue inserts to head : <num>, durable timestamp queue inserts total : <num>, durable timestamp queue length : <num>, number of named snapshots created : <num>, number of named snapshots dropped : <num>, prepared transactions : <num>, prepared transactions committed : <num>, prepared transactions currently active : <num>, prepared transactions rolled back : <num>, query timestamp calls : <num>, read timestamp queue entries walked : <num>, read timestamp queue insert to empty : <num>, read timestamp queue inserts to head : <num>, read timestamp queue inserts total : <num>, read timestamp queue length : <num>, rollback to stable calls : <num>, rollback to stable updates aborted : <num>, rollback to stable updates removed from cache overflow : <num>, set timestamp calls : <num>, set timestamp durable calls : <num>, set timestamp durable updates : <num>, set timestamp oldest calls : <num>, set timestamp oldest updates : <num>, set timestamp stable calls : <num>, set timestamp stable updates : <num>, transaction begins : <num>, transaction checkpoint currently running : <num>, transaction checkpoint generation : <num>, transaction checkpoint max time (msecs) : <num>, transaction checkpoint min time (msecs) : <num>, transaction checkpoint most recent time (msecs) : <num>, transaction checkpoint scrub dirty target : <num>, transaction checkpoint scrub time (msecs) : <num>, transaction checkpoint total time (msecs) : <num>, transaction checkpoints : <num>, transaction checkpoints skipped because database was clean : <num>, transaction failures due to cache overflow : <num>, transaction fsync calls for checkpoint after allocating the transaction ID : <num>, transaction fsync duration for checkpoint after allocating the transaction ID (usecs) : <num>, transaction range of IDs currently pinned : <num>, transaction range of IDs currently pinned by a checkpoint : <num>, transaction range of IDs currently pinned by named snapshots : <num>, transaction range of timestamps currently pinned : <num>, transaction range of timestamps pinned by a checkpoint : <num>, transaction range of timestamps pinned by the oldest active read timestamp : <num>, transaction range of timestamps pinned by the oldest timestamp : <num>, transaction read timestamp of the oldest active reader : <num>, transaction sync calls : <num>, transactions committed : <num>, transactions rolled back : <num>, update conflicts : <num> }, concurrentTransactions : { write : { out : <num>, available : <num>, totalTickets : <num> }, read : { out : <num>, available : <num>, totalTickets : <num> }, monitor : { timesDecreased: <num>, timesIncreased: <num>, totalAmountDecreased: <num>, totalAmountIncreased: <num> } }, snapshot-window-settings : { total number of SnapshotTooOld errors : <num>, max target available snapshots window size in seconds : <num>, target available snapshots window size in seconds : <num>, current available snapshots window size in seconds : <num>, latest majority snapshot timestamp available : <string>, oldest majority snapshot timestamp available : <string> } }
Nota
La siguiente no es una lista exhaustiva.
wiredTiger.asyncUn documento que proporciona estadísticas relacionadas con la API de operaciones asincrónicas. MongoDB no usa este tipo de datos.
wiredTiger.block-managerUn documento que proporciona estadísticas sobre las operaciones del administrador de bloques.
wiredTiger.cacheUn documento que proporciona estadísticas sobre la caché y los desalojos de páginas desde la caché.
A continuación se describen algunas de las estadísticas clave de
wiredTiger.cache:wiredTiger.cache.bytes currently in the cacheTamaño en bytes de los datos actualmente en caché. Este valor no debe ser mayor que el valor
maximum bytes configured.
wiredTiger.cache.tracked dirty bytes in the cacheTamaño en bytes de los datos no confiables en la caché. Este valor debe ser menor que el valor
bytes currently in the cache.
wiredTiger.cache.pages read into cacheNúmero de páginas leídas en el caché.
wiredTiger.cache.pages read into cachejunto con elwiredTiger.cache.pages written from cachepuede proporcionar una visión general de la actividad de I/O.
wiredTiger.cache.pages written from cacheNúmero de páginas escritas desde el caché.
wiredTiger.cache.pages written from cachejunto con elwiredTiger.cache.pages read into cachepuede proporcionar una visión general de la actividad de I/O.
Para ajustar el tamaño de la caché interna de WiredTiger, consulta
storage.wiredTiger.engineConfig.cacheSizeGBy--wiredTigerCacheSizeGB. Se debe evitar aumentar el tamaño de la caché interna de WiredTiger por encima de su valor por defecto.
wiredTiger.connectionUn documento que devuelve estadísticas relacionadas con las conexiones de WiredTiger.
wiredTiger.data-handleUn documento que devuelve estadísticas sobre las gestiones y los barridos de datos.
wiredTiger.logUn documento que devuelve estadísticas sobre el registro de guardado anticipado de WiredTiger (es decir, la bitácora).
wiredTiger.reconciliationUn documento que proporciona estadísticas sobre el proceso de conciliación.
wiredTiger.sessionUn documento que proporciona la cantidad de cursores abiertos y de sesiones abiertas para la sesión.
wiredTiger.thread-yieldUn documento que proporciona estadísticas de los rendimientos durante la adquisición de páginas.
wiredTiger.transactionUn documento que proporciona estadísticas sobre los puntos de control de transacciones y las operaciones.
wiredTiger.concurrentTransactionsModificado en la versión 7.0.
Un documento que devuelve información sobre:
La cantidad de transacciones de lectura simultáneas (tickets de lectura) permitidas en el motor de almacenamiento WiredTiger.
La cantidad de transacciones de escritura simultáneas (tickets de escritura) permitidas en el motor de almacenamiento WiredTiger.
Cualquier ajuste que el sistema haya hecho al número de transacciones simultáneas permitidas (tickets).
Esta configuración es específica de MongoDB. Para cambiar la configuración de las transacciones de lecturas y escrituras simultáneas (tickets de lectura y escritura), consulte
storageEngineConcurrentReadTransactionsystorageEngineConcurrentWriteTransactions.Importante
A partir de la versión 7.0, MongoDB utiliza un algoritmo por defecto para ajustar dinámicamente el número máximo de transacciones concurrentes del motor de almacenamiento (incluidos tanto los tickets de lectura como de escritura) para optimizar el rendimiento de la base de datos durante situaciones de sobrecarga.
La siguiente tabla resume cómo identificar escenarios de sobrecarga para MongoDB 7.0 y versiones anteriores:
VersiónDiagnóstico de escenarios de sobrecarga7.0
Un gran número de operaciones en cola que persisten durante un período de tiempo prolongado probablemente indica una sobrecarga.
La disponibilidad de 0 en una transacción de motor de almacenamiento concurrente (ticket) durante un período prolongado no indica una sobrecarga.
6.0 y anteriores
Un gran número de operaciones en cola que persisten durante un período de tiempo prolongado probablemente indica una sobrecarga.
La disponibilidad de 0 para una transacción (ticket) del motor de almacenamiento concurrente durante un período prolongado probablemente indica una sobrecarga.
escrituras devueltas en cola
writeBacksQueued : <boolean>,
writeBacksQueuedUn valor booleano que indica si hay operaciones de una
mongosinstancia en cola para reintentar. Normalmente, este valor es falso. Véase también "writeBacks".