Definição
serverStatusO comando
serverStatusretorna um documento que fornece uma visão geral do estado do banco de dados. Monitorar aplicativos pode executar este comando em um intervalo regular para coletar estatísticas sobre a instância.
Compatibilidade
Esse comando está disponível em implantações hospedadas nos seguintes ambientes:
MongoDB Atlas: o serviço totalmente gerenciado para implantações do MongoDB na nuvem
Observação
Este comando é aceito em todos os clusters do MongoDB Atlas. Para obter informações sobre o suporte do Atlas a todos os comandos, consulte Comandos não suportados.
MongoDB Enterprise: a versão autogerenciada e baseada em assinatura do MongoDB
MongoDB Community: uma versão com código disponível, de uso gratuito e autogerenciada do MongoDB
Sintaxe
O comando tem a seguinte sintaxe:
db.runCommand( { serverStatus: 1 } )
O valor (ou seja, 1 acima) não afeta a operação do comando. O comando db.serverStatus() retorna uma grande quantidade de dados. Para retornar um objeto ou campo específico do resultado, anexe o nome do objeto ou campo ao comando.
Por exemplo:
db.runCommand({ serverStatus: 1}).metrics db.runCommand({ serverStatus: 1}).metrics.commands db.runCommand({ serverStatus: 1}).metrics.commands.update
mongosh fornece o encapsulador db.serverStatus() para o comandoserverStatus.
Dica
Grande parte da saída de serverStatus também é exibida dinamicamente por mongostat. Consulte o comando mongostat para mais informações.
Comportamento
Por padrão, serverStatus exclui em sua saída:
parte do conteúdo no documento repl.
Documento mirroredReads.
Para incluir campos que são excluídos por padrão, especifique o campo de nível superior e defina-o para 1 no comando. Para excluir campos incluídos por padrão, especifique o campo e defina como 0. Você pode especificar campos incorporados ou de nível superior.
Por exemplo, a seguinte operação exclui as informações repl, metrics e locks na saída.
db.runCommand( { serverStatus: 1, repl: 0, metrics: 0, locks: 0 } )
Por exemplo, a seguinte operação exclui o campo histogram incorporado na saída.
db.runCommand( { serverStatus: 1, metrics: { query: { multiPlanner: { histograms: false } } } } )
O exemplo a seguir inclui todas as informações de repl na saída:
db.runCommand( { serverStatus: 1, repl: 1 } )
Inicialização
As estatísticas relatadas por serverStatus são redefinidas quando o servidor mongod é reiniciado.
Este comando sempre retornará um valor, mesmo em um banco de dados novo. O comando relacionado db.serverStatus() nem sempre retorna um valor a menos que um contador tenha começado a incrementar para uma métrica específica.
Após executar uma query de atualização, db.serverStatus() e db.runCommand({ serverStatus: 1}) retornam os mesmos valores.
{ arrayFilters : Long("0"), failed : Long("0"), pipeline : Long("0"), total : Long("1") }
Incluir mirroredReads
Por padrão, as informações de mirroredReads não são incluídas na saída. Para retornar informações mirroredReads, você deve especificar explicitamente a inclusão:
db.runCommand( { serverStatus: 1, mirroredReads: 1 } )
Saída
Observação
Os campos de saída variam dependendo da versão do MongoDB, da plataforma do sistema operacional subjacente, do mecanismo de armazenamento e do tipo de nó, incluindo mongos, mongod ou nó do conjunto de réplicas.
Para ver a saída de serverStatus específica da sua versão do MongoDB, consulte a versão correspondente do Manual do MongoDB.
asserts
asserts: { regular: <num>, warning: <num>, msg: <num>, user: <num>, rollovers: <num> },
assertsUm documento que relata o número de asserções exibidas desde o início do processo MongoDB. Asserções são verificações internas de erros que ocorrem enquanto o banco de dados está operando e podem ajudar a diagnosticar problemas com o servidor MongoDB. Valores de asserção diferentes de zero indicam erros de asserção, que são incomuns e não são motivo imediato de preocupação. Os erros que geram asserções podem ser registrados no arquivo de log ou retornados diretamente a um aplicativo cliente para obter mais informações.
asserts.regularO número de afirmações regulares levantadas desde o início do processo do MongoDB. Examine o log do MongoDB para obter mais informações.
asserts.msgO número de afirmações de mensagens levantadas desde o início do processo MongoDB. Examine o arquivo de log para obter mais informações sobre essas mensagens.
asserts.userO número de "asserções de usuário" que ocorreram desde a última vez que o processo MongoDB começou. São erros que o usuário pode gerar, como falta de espaço em disco ou chave duplicada. Você pode evitar essas asserções corrigindo um problema com seu aplicativo ou sistema. Os logs do servidor podem ter informações limitadas sobre "asserções de usuário". Para aprender mais informações sobre a origem de "asserções de usuário", verifique os logs quanto a erros do aplicativo.
asserts.rolloversO número de vezes que os contadores de afirmação foram reiniciados desde a última vez que o processo do MongoDB foi iniciado. Os contadores voltam a zero após 2 30 afirmações. Use esse valor para fornecer contexto para os outros valores na estrutura de dados
asserts.
bucketCatalog
bucketCatalog: { numBuckets: <num>, numOpenBuckets: <num>, numIdleBuckets: <num>, memoryUsage: <num>, numBucketInserts: <num>, numBucketUpdates: <num>, numBucketsOpenedDueToMetadata: <num>, numBucketsClosedDueToCount: <num>, numBucketsClosedDueToSchemaChange: <num>, numBucketsClosedDueToSize: <num>, numBucketsClosedDueToTimeForward: <num>, numBucketsClosedDueToTimeBackward: <num>, numBucketsClosedDueToMemoryThreshold: <num>, numCommits: <num>, numMeasurementsGroupCommitted: <num>, numWaits: <num>, numMeasurementsCommitted: <num>, avgNumMeasurementsPerCommit: <num>, numBucketsClosedDueToReopening: <num>, numBucketsArchivedDueToMemoryThreshold: <num>, numBucketsArchivedDueToTimeBackward: <num>, numBucketsReopened: <num>, numBucketsKeptOpenDueToLargeMeasurements: <num>, numBucketsClosedDueToCachePressure: <num>, numBucketsFrozen: <num>, numCompressedBucketsConvertedToUnsorted: <num>, numBucketsFetched: <num>, numBucketsQueried: <num>, numBucketFetchesFailed: <num>, numBucketQueriesFailed: <num>, numBucketReopeningsFailed: <num>, numDuplicateBucketsReopened: <num>, stateManagement: { bucketsManaged: <num>, currentEra: <num>, erasWithRemainingBuckets: <num>, trackedClearOperations: <num> } }
Novidades na versão 5.0.
Um documento que relata métricas relacionadas ao armazenamento interno de coleções de séries temporais.
O bucketCatalog retorna as seguintes métricas:
Métrica | Descrição |
|---|---|
| O número total de buckets rastreados. Espera-se que seja igual à soma de |
| O número de buckets rastreados com uma representação completa armazenada em cache, prontos para receber novos documentos. |
| O número de buckets abertos e atualmente sem uma inserção de documento pendente e não confirmada. Um subconjunto de numOpenBuckets. |
| O número de buckets rastreados com uma representação mínima armazenada em cache que podem ser reabertos de forma eficiente para receber novos documentos. |
| O número de bytes usados pelas estruturas de dados de buckets internas. |
| O número de novos buckets criados. |
| O número de vezes que um bucket existente foi atualizado para incluir documentos adicionais. |
| O número de buckets abertos porque um documento chegou com um valor |
| O número de buckets fechados por atingirem o limite de contagem de documentos. |
| O número de buckets fechados porque o esquema de um documento recebido era incompatível com o dos documentos no bucket aberto. |
| O número de buckets fechados porque um documento recebido faria com que o bucket excedesse seu limite de tamanho. |
| O número de buckets fechados porque um documento chegou com um valor |
| O número de buckets fechados porque um documento chegou com um valor |
| O número de buckets fechados porque o conjunto de buckets ativos não se encaixava no tamanho permitido do cache do catálogo de buckets. |
| O número de confirmações no nível do bucket para a coleção de séries temporais. |
| O número de confirmações que incluíram medidas de comandos de inserção simultâneos. |
| O número de vezes que uma operação esperou em outro thread para reabrir um bucket ou concluir uma confirmação de grupo. |
| O número de documentos comprometidos com a Coleção de séries temporais. |
| Número médio de documentos por confirmação. |
| O número de buckets fechados porque um bucket adequado foi reaaberto em seu lugar. |
| O número de buckets arquivados porque o conjunto de buckets ativos não se encaixava no tamanho permitido do cache do catálogo de buckets. |
| O número de buckets arquivados porque um documento chegou com um valor |
| O número de buckets reabertos porque chegou um documento que não correspondia a nenhum bucket aberto, mas correspondia a um bucket não completo existente. |
| O número de buckets que teriam sido fechados devido ao tamanho, mas foram mantidos abertos por não conterem um número mínimo de documentos necessários para obter uma compactação considerável. |
| O número de buckets fechados porque seu tamanho excede o limite de tamanho de bucket dinâmico do catálogo de buckets derivado do tamanho de cache do mecanismo de armazenamento disponível e |
| O número de buckets congelados. Os buckets são congelados se a tentativa de compactá-los corromper seu conteúdo. |
| O número de buckets compactados que contêm documentos não classificados por seus respectivos valores de |
| O número de buckets arquivados buscados para verificar se eles eram adequados para reabertura. |
| O número total de buckets acessados por meio de uma query para verificar se poderiam armazenar um documento recebido. |
| O número de buckets arquivados buscados que não eram adequados para reabertura. |
| O número de queries para um bucket aberto adequado que falhou devido à falta de disponibilidade de candidatos. |
| O número de tentativas de reabertura de buckets que falharam por motivos que incluem conflitos com operações simultâneas e buckets malformados, entre outros. |
| O número de buckets reabertos que são cópias de buckets abertos atualmente. |
| Um documento que acompanha informações de estado do catálogo de buckets. |
| O número total de buckets que estão sendo rastreados para gerenciamento de conflitos. Isso inclui buckets abertos no catálogo de buckets, bem como quaisquer buckets que estejam sendo gravados diretamente, inclusive por comandos de atualização e exclusão. |
| A era atual do catálogo de buckets. O catálogo de buckets começa na era 0 e é incrementado quando um bucket é limpo. A tentativa de inserir em um bucket fará com que ele seja removido se tiver sido limpo ou atualizado para a era atual. |
| O número de eras com buckets rastreados. |
| O número de vezes que um conjunto de buckets foi limpo, mas a remoção desses buckets foi adiada. Isso pode acontecer devido a eventos como descarte de uma coleção, movimentação de uma parte em uma coleção fragmentada ou uma eleição. |
Você também pode usar a $collStats fases do pipeline de agregação para encontrar métricas de série temporal. Para aprender mais, veja saída do storageStats em coleção de séries temporais.
catalogStats
Novidades na versão 5.1.
catalogStats: { collections: <num>, capped: <num>, views: <num>, timeseries: <num>, internalCollections: <num>, internalViews: <num>, systemProfile: <num> }
catalogStatsUm documento que relata estatísticas sobre o uso da coleção por meio de contagens de coleção.
catalogStats.internalCollectionsO número total de coleções do sistema (coleções nos bancos de dados
config,adminoulocal).
catalogStats.internalViewsO número total de visualizações de coleções do sistema (coleção nos banco de dados
config,adminoulocal).
catalogStats.systemProfileO número total de collections
profileem todos os bancos de dados.
changeStreamPreImages
Novidades na versão 5.0.
changeStreamPreImages : { purgingJob : { totalPass : <num>, docsDeleted : <num>, bytesDeleted : <num>, scannedCollections : <num>, scannedInternalCollections : <num>, maxStartWallTimeMillis : <num>, timeElapsedMillis : <num>, }, expireAfterSeconds : <num> }
Um documento que reporta métricas relacionadas à change stream pre-images.
changeStreamPreImages.purgingJobNovidade na versão 7.1.
Um documento que reporta métricas relacionadas às tarefa de limpeza para pré-imagens de change stream. As tarefas de limpeza são processos em segundo plano que o sistema usa para remover pré-imagens de forma assíncrona.
O campo
changeStreamPreImages.purgingJobretorna as seguintes métricas:MétricaDescriçãototalPassNúmero total de passagens de exclusão concluídas pela tarefa de limpeza.
docsDeletedNúmero cumulativo de documento pré-imagem excluídos pela tarefa de limpeza.
bytesDeletedTamanho cumulativo em bytes de todos os documento excluídos de todas as collection de pré-imagem pela tarefa de limpeza.
scannedCollectionsNúmero cumulativo de collection de pré-imagem digitalizadas pela tarefa de limpeza.
Em ambientes de inquilino único, esse número é o mesmo que
totalPass, pois cada locatário tem uma collection de pré-imagem.scannedInternalCollectionsNúmero cumulativo de collection internas de pré-imagem digitalizadas pela tarefa de limpeza. Internal collections are the collections within the pre-image collections stored in
config.system.preimages.maxStartWallTimeMillisTempo máximo de wall em milissegundos a partir do primeiro documento de cada collection de pré-imagem.
timeElapsedMillisO tempo cumulativo em milissegundos de todas as exclusões passa pela tarefa de limpeza.
changeStreamPreImages.expireAfterSecondsNovidade na versão 7.1.
Quantidade de tempo em segundos que o MongoDB retém pré-imagens. Se
expireAfterSecondsnão estiver definido, esta métrica não aparecerá na saídaserverStatus.
conexões
connections : { current : <num>, available : <num>, totalCreated : <num>, rejected : <num>, // Added in MongoDB 6.3 active : <num>, threaded : <num>, exhaustIsMaster : <num>, exhaustHello : <num>, awaitingTopologyChanges : <num>, loadBalanced : <num>, queuedForEstablishment : <num>, // Added in MongoDB 8.2 *(also available in 8.1.1, 8.0.12, and 7.0.23)* establishmentRateLimit : { // Added in MongoDB 8.2 *(also available in 8.1.1, 8.0.12, and 7.0.23)* rejected: <num>, exempted: <num>, interruptedDueToClientDisconnect: <num> } }
connectionsUm documento que relata o status das conexões. Use esses valores para avaliar os requisitos atuais de carga e capacidade do servidor.
connections.currentO número de conexões de entrada dos clientes com o servidor do banco de dados. Esse número inclui a sessão atual do shell. Considere o valor de
connections.availablepara adicionar mais contexto a este dado.O valor incluirá todas as conexões de entrada incluindo quaisquer conexões de shell ou conexões de outros servidores, como membros do conjunto de réplicas ou instâncias
mongos.
connections.availableO número de conexões de entrada não utilizadas disponíveis. Considere esse valor em combinação com o valor de
connections.currentpara entender a carga de conexão no banco de dados e o documento Configurações do UNIXulimitpara implantações autogerenciadas para obter mais informações sobre os limites do sistema em conexões disponíveis.
connections.totalCreatedContagem de todas as conexões de entrada criadas para o servidor. Esse número inclui conexões que já foram fechadas.
connections.rejectedNovidades na versão 6.3.
O número de conexões de entrada que o servidor rejeitou por não ter capacidade para aceitar conexões adicionais ou porque a configuração
net.maxIncomingConnectionsfoi atingida.
connections.queuedForEstablishmentNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número de conexões de entrada atualmente em fila e aguardando o estabelecimento. Esta métrica é relevante quando a limitação da taxa de estabelecimento de conexão é habilitada usando o parâmetro
ingressConnectionEstablishmentRateLimiterEnabled.
connections.establishmentRateLimitNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
Um documento que contém métricas relacionadas ao limitador de taxa de estabelecimento de conexão de entrada. Essas métricas oferecem insights sobre como o limitador de taxa lida com solicitações de conexão quando
ingressConnectionEstablishmentRateLimiterEnabledestá configurado paratrue. Para obter mais informações sobre limitação de taxa, consulte Configurar o limitador de taxa de estabelecimento de conexão de entrada.
connections.establishmentRateLimit.rejectedNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número de conexões de entrada que o servidor rejeita devido à limitação da taxa de estabelecimento de conexões. Esta métrica mostra quantas tentativas de conexão o servidor rejeitou porque excederam os limites de taxa definidos pelos parâmetros do limitador de taxa de estabelecimento de conexão de entrada.
connections.establishmentRateLimit.exemptedNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número de conexões de entrada que ignoraram o limitador de taxa porque se originaram de endereços IP ou faixas CIDR especificadas no parâmetro
ingressConnectionEstablishmentRateLimiterBypass. O servidor não limita a taxa dessas conexões e as estabelece imediatamente, independentemente do tamanho da fila atual ou dos limites de taxa.
connections.establishmentRateLimit.interruptedDueToClientDisconnectNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número de conexões de entrada que foram interrompidas enquanto aguardavam na fila de estabelecimento porque o cliente se desconectou antes que a conexão pudesse ser concluída. Um valor alto para esta métrica às vezes indica que a configuração
connectTimeoutMSdo cliente é muito curta em relação ao tempo de espera da fila, que é afetado poringressConnectionEstablishmentMaxQueueDeptheingressConnectionEstablishmentRatePerSec. Se esse valor for alto, considere ajustar esses parâmetros usando a seguinte fórmula:maxQueueDepth < (establishmentRatePerSec / 1000) * (connectTimeoutMs - avgEstablishmentTimeMs).
connections.activeO número de conexões de cliente ativas com o servidor. Conexões de cliente ativas referem-se a conexões de cliente que atualmente têm operações em andamento.
connections.threadedO número de conexões recebidas de clientes que são atribuídas a threads que o cliente de serviço solicita.
Novidades na versão 5.0.
connections.exhaustIsMasterO número de conexões cuja última solicitação foi
isMastercom exhaustAllowed.Observação
Se você estiver executando o MongoDB 5.0 ou posterior, não use o comando
isMaster. Em vez disso, usehello.
connections.exhaustHelloO número de conexões cuja última solicitação foi
hellocom exhaustAllowed.Novidades na versão 5.0.
defaultRWConcern
A seção defaultRWConcern fornece informações sobre a cópia local das configurações de read ou write concern padrão globais. Os dados podem estar obsoletos ou desatualizados. Consulte getDefaultRWConcern para mais informações.
defaultRWConcern : { defaultReadConcern : { level : <string> }, defaultWriteConcern : { w : <string> | <int>, wtimeout : <int>, j : <bool> }, defaultWriteConcernSource: <string>, defaultReadConcernSource: <string>, updateOpTime : Timestamp, updateWallClockTime : Date, localUpdateWallClockTime : Date }
defaultRWConcern.defaultReadConcernA última configuração de read concern padrão global conhecida.
Se
serverStatusnão retornar esse campo, a preocupação de leitura padrão global não foi definida ou ainda não foi propagada para a instância.
defaultRWConcern.defaultReadConcern.levelA última configuração de nível de read concern padrão global conhecida.
Se
serverStatusnão retornar esse campo, o padrão global para essa configuração não foi definido ou ainda não foi propagado para a instância.
defaultRWConcern.defaultWriteConcernA última configuração de write concern padrão global conhecida.
Se
serverStatusnão retornar esse campo, a preocupação de gravação padrão global não foi definida ou ainda não foi propagada para a instância.
defaultRWConcern.defaultWriteConcern.wA última configuração de w padrão global conhecida.
Se
serverStatusnão retornar esse campo, o padrão global para essa configuração não foi definido ou ainda não foi propagado para a instância.
defaultRWConcern.defaultWriteConcern.wtimeoutA última configuração de wtimeout padrão global conhecida.
Se
serverStatusnão retornar esse campo, o padrão global para essa configuração não foi definido ou ainda não foi propagado para a instância.
defaultRWConcern.defaultWriteConcernSourceA origem da write concern padrão. Por padrão, o valor é
"implicit". Após definir a write concern padrão comsetDefaultRWConcern, o valor se torna"global".Novidades na versão 5.0.
defaultRWConcern.defaultReadConcernSourceA origem da read concern padrão. Por padrão, o valor é
"implicit". Depois de definir a read concern padrão comsetDefaultRWConcern, o valor se torna"global".Novidades na versão 5.0.
defaultRWConcern.updateOpTimeO registro de data/hora em que a instância atualizou pela última vez sua cópia de qualquer configuração global de preocupação de leitura ou preocupação de gravação. Se os campos
defaultRWConcern.defaultReadConcernedefaultRWConcern.defaultWriteConcernestiverem ausentes, este campo indicará o registro de data/hora quando os padrões foram desconfigurados pela última vez.
defaultRWConcern.updateWallClockTimeA hora do relógio quando a instância atualizou pela última vez sua cópia de qualquer configuração de preocupação de leitura ou gravação global. Se os campos
defaultRWConcern.defaultReadConcernedefaultRWConcern.defaultWriteConcernestiverem ausentes, esse campo indicará a hora em que os padrões foram desconfigurados pela última vez.
defaultRWConcern.localUpdateWallClockTimeO horário do sistema local em que a instância atualizou pela última vez sua cópia de qualquer configuração de preocupação de leitura ou gravação global. Se esse campo for o único campo sob
defaultRWConcern, a instância nunca teve conhecimento de uma configuração global de preocupação de leitura ou gravação de padrão.
electionMetrics
A seção electionMetrics fornece informações sobre as eleições convocadas por essa instância mongod em uma tentativa de se tornar o primary:
electionMetrics : { stepUpCmd : { called : Long("<num>"), successful : Long("<num>") }, priorityTakeover : { called : Long("<num>"), successful : Long("<num>") }, catchUpTakeover : { called : Long("<num>"), successful : Long("<num>") }, electionTimeout : { called : Long("<num>"), successful : Long("<num>") }, freezeTimeout : { called : Long("<num>"), successful : Long("<num>") }, numStepDownsCausedByHigherTerm : Long("<num>"), numCatchUps : Long("<num>"), numCatchUpsSucceeded : Long("<num>"), numCatchUpsAlreadyCaughtUp : Long("<num>"), numCatchUpsSkipped : Long("<num>"), numCatchUpsTimedOut : Long("<num>"), numCatchUpsFailedWithError : Long("<num>"), numCatchUpsFailedWithNewTerm : Long("<num>"), numCatchUpsFailedWithReplSetAbortPrimaryCatchUpCmd : Long("<num>"), averageCatchUpOps : <double> }
electionMetrics.stepUpCmdMétricas sobre eleições que foram convocadas pelo
mongodinstância como parte de uma transferência eleitoral quando o primary foi cancelado.O
stepUpCmdinclui o número de eleições convocadas e o número de eleições realizadas.
electionMetrics.priorityTakeoverMétricas sobre eleições que foram convocadas pela instância
mongodporque suapriorityé maior que a do primary.O
electionMetrics.priorityTakeoverinclui o número de eleições convocadas e o número de eleições realizadas.
electionMetrics.catchUpTakeoverMétricas sobre eleições convocadas pela instância
mongodporque é mais atual do que o primary.O
catchUpTakeoverinclui o número de eleições convocadas e o número de eleições realizadas.
electionMetrics.electionTimeoutMétricas sobre eleições convocadas pela instância
mongodporque não conseguiu chegar ao primary dentro desettings.electionTimeoutMillis.O
electionTimeoutinclui o número de eleições convocadas e o número de eleições realizadas.
electionMetrics.freezeTimeoutMétricas sobre eleições convocadas pela instância
mongodapós o término dofreeze period(durante o qual o nó não pode buscar uma eleição).O
electionMetrics.freezeTimeoutinclui o número de eleições convocadas e o número de eleições realizadas.
electionMetrics.numStepDownsCausedByHigherTermNúmero de vezes que a instância
mongoddiminuiu porque viu um termo maior (especificamente, outros nós participaram de eleições adicionais).
electionMetrics.numCatchUpsNúmero de eleições em que a instância
mongodcomo primary recém-eleito teve que alcançar a maior entrada conhecida no oplog.
electionMetrics.numCatchUpsSucceededNúmero de vezes que a instância
mongodcomo primary recém-eleito alcançou com sucesso a entrada de oplog mais alta conhecida.
electionMetrics.numCatchUpsAlreadyCaughtUpNúmero de vezes que a instância
mongodcomo primary recém-eleito concluiu seu processo de recuperação porque já estava recuperada quando foi eleita.
electionMetrics.numCatchUpsSkippedNúmero de vezes que a instância
mongodcomo primary recém-selecionado ignorou o processo de recuperação.
electionMetrics.numCatchUpsTimedOutNúmero de vezes que a instância
mongodcomo primary recém-eleito concluiu o processo de recuperação devido ao limitesettings.catchUpTimeoutMillis.
electionMetrics.numCatchUpsFailedWithErrorNúmero de vezes que o processo de recuperação do primary recém-eleito falhou com um erro.
electionMetrics.numCatchUpsFailedWithNewTermNúmero de vezes que o processo de recuperação do primary recém-eleito foi concluído porque outros nós tinham um termo mais elevado (especificamente, outros nós participaram de eleições adicionais).
electionMetrics.numCatchUpsFailedWithReplSetAbortPrimaryCatchUpCmdNúmero de vezes que o processo de recuperação do primary recém-eleito foi concluído porque o
mongodrecebeu o comandoreplSetAbortPrimaryCatchUp.
extra_info
extra_info : { note : 'fields vary by platform', page_faults : <num> },
extra_info.page_faultsO número total de falhas de página. O contador
extra_info.page_faultspode aumentar drasticamente durante momentos de desempenho ruim e pode estar correlacionado com ambientes de memória limitada e conjuntos de dados maiores. Falhas de página limitadas e esporádicas não indicam necessariamente um problema.O Windows diferencia as falhas de página "hard" que envolvem E/S de disco das falhas de página "soft" que exigem apenas a movimentação de páginas na memória. O MongoDB conta falhas de página hard e soft nesta estatística.
flowControl
flowControl : { enabled : <boolean>, targetRateLimit : <int>, timeAcquiringMicros : Long("<num>"), locksPerKiloOp : <double>, sustainerRate : <int>, isLagged : <boolean>, isLaggedCount : <int>, isLaggedTimeMicros : Long("<num>") },
flowControlUm documento que retorna estatísticas sobre o controle de fluxo. Com o controle de fluxo ativado, à medida que o atraso do ponto
majority commitse aproxima deflowControlTargetLagSeconds, as gravações no primary precisam obter tickets antes de aceitar travas. Dessa forma, as métricas retornadas são significativas quando executadas no primary.
flowControl.enabledUm booleano que indica se o controle de fluxo está habilitado (
true) ou desabilitado (false).Consulte também
enableFlowControl.
flowControl.targetRateLimitQuando executado no primary, o número máximo de tickets que podem ser adquiridos por segundo.
Quando executado em um secundário, o número retornado é um espaço reservado.
flowControl.timeAcquiringMicrosQuando executado no primary, o tempo total de espera das operações de gravação para adquirir um ticket.
Quando executado em um secundário, o número retornado é um espaço reservado.
flowControl.locksPerKiloOpQuando executado no primary, uma aproximação do número de travas realizadas por 1000 operações.
Quando executado em um secundário, o número retornado é um espaço reservado.
flowControl.sustainerRateQuando executado no primary, uma aproximação das operações aplicadas por segundo pelo secundário que está sustentando o ponto de commit.
Quando executado em um secundário, o número retornado é um espaço reservado.
flowControl.isLaggedQuando executado no primary, um booleano que indica se o controle de fluxo está ativado. O controle de fluxo é ativado quando o atraso da maioria com commit é maior do que alguma porcentagem de
flowControlTargetLagSecondsconfigurado.O atraso de replicação pode ocorrer sem envolver o controle de fluxo. Um secundário que não responde pode atrasar sem que o conjunto de réplicas receba carga suficiente para acionar o controle de fluxo, deixando o valor
flowControl.isLaggedemfalse.Para obter informações adicionais, consulte Controle de fluxo.
flowControl.isLaggedCountQuando executado em um primary, o número de vezes que o controle de fluxo foi acionado desde a última reinicialização. O controle de fluxo é ativado quando a maioria dos atrasos com commit é maior do que uma porcentagem de
flowControlTargetLagSeconds.Quando executado em um secundário, o número retornado é um espaço reservado.
flowControl.isLaggedTimeMicrosQuando executado no primary, a quantidade do controle de fluxo de tempo gasto sendo ativado desde a última reinicialização. O controle de fluxo é ativado quando a maioria dos atrasos com commit é maior do que uma porcentagem de
flowControlTargetLagSeconds.Quando executado em um secundário, o número retornado é um espaço reservado.
globalLock
globalLock : { totalTime : Long("<num>"), currentQueue : { total : <num>, readers : <num>, writers : <num> }, activeClients : { total : <num>, readers : <num>, writers : <num> } },
globalLockUm documento que informa sobre o estado de trava do banco de dados.
Em geral, o documento de travas fornece dados mais detalhados sobre os usos das travas.
globalLock.totalTimeO tempo, em microssegundos, desde a última vez que o banco de dados foi iniciado e criou o
globalLock. Isso equivale aproximadamente ao tempo de atividade total do servidor.
globalLock.currentQueueUm documento que fornece informações sobre o número de operações em fila devido a uma trava.
globalLock.currentQueue.totalO número total de operações na fila aguardando o bloqueio (ou seja, a soma de
globalLock.currentQueue.readerseglobalLock.currentQueue.writers).Uma fila continuamente pequena, especialmente de operações mais curtas, não deve causar preocupação. As informações de leitores e gravadores de
globalLock.activeClientscontextualizam esses dados.
globalLock.currentQueue.readersO número de operações que estão atualmente em fila e aguardando o read lock. Uma fila de leitura consistentemente pequena, especialmente de operações mais curtas, não deve causar preocupação.
globalLock.currentQueue.writersO número de operações atualmente em fila e aguardando o bloqueio de escrita. Uma fila de escrita consistentemente pequena, especialmente de operações mais curtas, não deve causar preocupação.
globalLock.activeClientsUm documento que fornece informações sobre o número de clientes conectados e as operações de leitura e escrita realizadas por esses clientes.
Use esses dados para fornecer contexto para os dados
globalLock.currentQueue.
globalLock.activeClients.totalO número total de conexões de clientes internos com o banco de dados, incluindo threads do sistema, bem como leitores e escritores em fila. Esta métrica será maior que o total de
activeClients.readerseactiveClients.writersdevido à inclusão de threads do sistema.
hedgingMetrics
Importante
A partir do MongoDB 8.0, as leituras distribuídas estão obsoletas. As queries que especificam a read preference nearest não usam mais leituras protegidas por padrão. Se você especificar explicitamente uma leitura com hedge, o MongoDB executará uma leitura com hedge e registrará um aviso.
Somente para instâncias mongos.
hedgingMetrics : { numTotalOperations : <num>, numTotalHedgedOperations : <num>, numAdvantageouslyHedgedOperations : <num> },
hedgingMetricsFornece métricas em leituras distribuídas para a instância
mongos.Somente para instâncias
mongos.
hedgingMetrics.numTotalOperationsO número total de operações emitidas com a opção de leitura distribuída ativada para essa instância
mongos.Somente para instâncias
mongos.
hedgingMetrics.numTotalHedgedOperationsO número de todas as operações para as quais a instância
mongosdistribuiu a operação de leitura, ou seja, enviou a operação para um nó adicional de cada shard consultado.Somente para instâncias
mongos.
hedgingMetrics.numAdvantageouslyHedgedOperationsO número total da operação em que a leitura adicional enviada para distribuir a operação de leitura atendeu à solicitação do cliente.
Somente para instâncias
mongos.
indexBuilds
indexBuilds : { total : <num>, killedDueToInsufficientDiskSpace : <num>, failedDueToDataCorruption : <num> },
indexBuildsFornece métricas sobre compilações de índice desde a última vez que o servidor foi iniciado.
indexBuilds.killedDueToInsufficientDiskSpaceTotal number of index builds that were ended because of insufficient disk space. A partir do MongoDB 7.1, você pode definir a quantidade mínima de espaço em disco necessária para construir índices utilizando o parâmetro
indexBuildMinAvailableDiskSpaceMB.Novidade na versão 7.1.
indexBulkBuilder
indexBulkBuilder: { count: <long>, resumed: <long>, filesOpenedForExternalSort: <long>, filesClosedForExternalSort: <long>, spilledRanges: <long>, bytesSpilledUncompressed: <long>, bytesSpilled: <long>, numSorted: <long>, bytesSorted: <long>, memUsage: <long> }
indexBulkBuilderFornece métricas para operações de construtor de índices em massa. Use essas métricas para diagnosticar problemas de compilação de índice com
createIndexes, clonagem de collection durante a initial sync, compilações de índice que são retomadas após a inicialização e estatísticas sobre o uso do disco pelo classificador externo.
indexBuildBuilder.bytesSpilledNovidades na versão 6.0.4.
O número de bytes gravados no disco pelo classificador externo.
indexBuilder.bytesSpilledUncompressedNovidades na versão 6.0.4.
O número de bytes a serem gravados no disco pelo classificador externo antes da compressão.
indexBulkBuilder.filesClosedForExternalSortO número de vezes que o classificador externo fechou um identificador de arquivo para passar dados ao disco. Combine esse valor com
filesOpenedForExternalSortpara determinar o número de identificadores de arquivos abertos em uso pelo classificador externo.
indexBulkBuilder.filesOpenedForExternalSortO número de vezes que o classificador externo abriu um identificador de arquivo para passar dados ao disco. Combine esse valor com
filesClosedForExternalSortpara determinar o número de manipuladores de arquivos abertos em uso pelo classificador externo.
indexBulkBuilder.resumedO número de vezes que o construtor em massa foi criado para uma construção de índice que pode ser retomada.
indexBulkBuilder.spilledRangesNovidades na versão 6.0.4.
O número de vezes que o classificador externo passou para o disco.
indexStats
indexStats: { count: Long("<num>"), features: { '2d': { count: Long("<num>"), accesses: Long("<num>") }, '2dsphere': { count: Long("<num>"), accesses: Long("<num>") }, '2dsphere_bucket': { count: Long("<num>"), accesses: Long("<num>") }, collation: { count: Long("<num>"), accesses: Long("<num>") }, compound: { count: Long("<num>"), accesses: Long("<num>") }, hashed: { count: Long("<num>"), accesses: Long("<num>") }, id: { count: Long("<num>"), accesses: Long("<num>") }, normal: { count: Long("<num>"), accesses: Long("<num>") }, partial: { count: Long("<num>"), accesses: Long("<num>") }, prepareUnique: { count: Long("<num>"), accesses: Long("<num>") }, // Added in 8.0.4 (and 7.0.14) single: { count: Long("<num>"), accesses: Long("<num>") }, sparse: { count: Long("<num>"), accesses: Long("<num>") }, text: { count: Long("<num>"), accesses: Long("<num>") }, ttl: { count: Long("<num>"), accesses: Long("<num>") }, unique: { count: Long("<num>"), accesses: Long("<num>") }, wildcard: { count: Long("<num>"), accesses: Long("<num>") } } }
indexStatsUm documento que reporta estatísticas sobre todos os índices em bancos de dados e collections apenas em namespaces fora do sistema.
indexStatsnão reporta estatísticas sobre índices nos bancos de dadosadmin,localeconfig.Novidades na versão 6.0.
indexStats.featuresUm documento que fornece contadores para cada tipo de índice e o número de acessos em cada índice. Cada tipo de índice em
indexStats.featurestem um campocountque conta o número total de índices para esse tipo e um campoaccessesque conta o número de acessos nesse índice.Novidades na versão 6.0.
Informações da instância
host : <string>, advisoryHostFQDNs : <array>, version : <string>, process : <'mongod'|'mongos'>, service : <'router'|'shard'>, pid : Long("<num>"), uptime : <num>, uptimeMillis : Long("<num>"), uptimeEstimate : Long("<num>"), localTime : ISODate("<Date>"),
serviceA função do processo atual do MongoDB. Os valores possíveis são
routeroushard.Novidades na versão 8.0.
locks
locks : { <type> : { acquireCount : { <mode> : Long("<num>"), ... }, acquireWaitCount : { <mode> : Long("<num>"), ... }, timeAcquiringMicros : { <mode> : Long("<num>"), ... }, deadlockCount : { <mode> : Long("<num>"), ... } }, ...
locksUm documento que reporta para cada trava
<type>, dados na trava<modes>.As possíveis travas
<types>são:Bloquear tipoDescriçãoParallelBatchWriterModeRepresenta um bloqueio para o modo de escrita em lote paralelo.
Em versões anteriores, as informações do PBWM foram relatadas como parte das informações de bloqueio do
Global.ReplicationStateTransitionRepresenta o bloqueio obtido para transições de estado membro do conjunto de réplicas.
GlobalRepresenta bloqueio global.
DatabaseRepresenta bloqueio de banco de dados.
CollectionRepresenta bloqueio de coleção.
MutexRepresenta mutex.
MetadataRepresenta bloqueio de metadados.
DDLDatabaseRepresenta um reconhecimento de data center DDL .
Novidade na versão 7.1.
DDLCollectionRepresenta um bloqueio de collection DDL .
Novidade na versão 7.1.
oplogRepresenta bloqueio no oplog.
Os possíveis
<modes>são:Modo de bloqueioDescriçãoRRepresenta bloqueio compartilhado (S).
WRepresenta bloqueio exclusivo (X).
rRepresenta bloqueio de Intent Shared (IS).
wRepresenta bloqueio Intent Exclusive (IX).
Todos os valores são do tipo
Long().
locks.<type>.acquireWaitCountNúmero de vezes que as aquisições de travas
locks.<type>.acquireCountencontraram esperas porque as travas foram mantidas em um modo conflitante.
locks.<type>.timeAcquiringMicrosTempo de espera cumulativo em microssegundos para as aquisições de trava.
locks.<type>.timeAcquiringMicrosdividido porlocks.<type>.acquireWaitCountfornece um tempo médio aproximado de espera para o modo de bloqueio específico.
logicalSessionRecordCache
logicalSessionRecordCache : { activeSessionsCount : <num>, sessionsCollectionJobCount : <num>, lastSessionsCollectionJobDurationMillis : <num>, lastSessionsCollectionJobTimestamp : <Date>, lastSessionsCollectionJobEntriesRefreshed : <num>, lastSessionsCollectionJobEntriesEnded : <num>, lastSessionsCollectionJobCursorsClosed : <num>, transactionReaperJobCount : <num>, lastTransactionReaperJobDurationMillis : <num>, lastTransactionReaperJobTimestamp : <Date>, lastTransactionReaperJobEntriesCleanedUp : <num>, sessionCatalogSize : <num> },
logicalSessionRecordCacheFornece métricas sobre o cache de sessões de servidor.
logicalSessionRecordCache.activeSessionsCountO número de todas as sessões locais ativas armazenadas em cache na memória pela instância
mongodoumongosdesde o último período de atualização.
logicalSessionRecordCache.sessionsCollectionJobCountO número que acompanha o número de vezes que o processo de atualização foi executado na collection
config.system.sessions.
logicalSessionRecordCache.lastSessionsCollectionJobDurationMillisO comprimento em milissegundos da última atualização.
logicalSessionRecordCache.lastSessionsCollectionJobTimestampA hora em que ocorreu a última atualização.
logicalSessionRecordCache.lastSessionsCollectionJobEntriesRefreshedO número de sessões que foram atualizadas durante a última atualização.
logicalSessionRecordCache.lastSessionsCollectionJobEntriesEndedO número de sessões encerradas durante a última atualização.
logicalSessionRecordCache.lastSessionsCollectionJobCursorsClosedO número de cursores que foram fechados durante a última atualização da collection
config.system.sessions.
logicalSessionRecordCache.transactionReaperJobCountO número que acompanhar o número de vezes que o processo de limpeza do registro de transações foi executado na collection
config.transactions.
logicalSessionRecordCache.lastTransactionReaperJobDurationMillisA duração (em milissegundos) da última limpeza do registro de transações.
logicalSessionRecordCache.lastTransactionReaperJobTimestampA hora da última limpeza do registro das transações.
logicalSessionRecordCache.lastTransactionReaperJobEntriesCleanedUpO número de entradas na collection
config.transactionsque foram excluídas durante a última limpeza do registro de transações.
logicalSessionRecordCache.sessionCatalogSize- Para uma instância
mongod, - O tamanho do cache na memória das entradas de
config.transactions. Corresponde a retryable writes ou transações cujas sessões não expiraram dentro delocalLogicalSessionTimeoutMinutes.
- Para uma instância
- Para uma instância
mongos, - O número do cache na memória de suas sessões que tiveram transações dentro do intervalo
localLogicalSessionTimeoutMinutesmais recente.
- Para uma instância
mem
mem : { bits : <int>, resident : <int>, virtual : <int>, supported : <boolean> },
memUm documento que relata a arquitetura do sistema do
mongode o uso da memória atual.
mem.bitsUm número,
64ou32, que indica se a instância MongoDB é compilada para arquitetura de 64 bits ou 32 bits.
mem.residentO valor de
mem.residenté aproximadamente equivalente à quantidade de RAM, em mebibyte (MiB), atualmente utilizada pelo processo do banco de dados. Durante o uso normal, esse valor tende a crescer. Em servidores de banco de dados dedicados, esse número tende a se aproximar da quantidade total de memória do sistema.
mem.virtualmem.virtualexibe a quantidade, em mebibyte (MiB), de memória virtual utilizada pelo processo domongod.
mem.supportedUm booleano que indica se o sistema subjacente permite informações de memória estendida. Se esse valor for falso e o sistema não permitir informações de memória estendida, outros valores
mempodem não estar acessíveis ao servidor de banco de dados.
mem.noteO campo
mem.noteaparece semem.supportedfor falso.O campo
mem.notecontém o texto:'not all mem info support on this platform'.
metrics
metrics : { abortExpiredTransactions: { passes: <integer>, successfulKills: <integer>, timedOutKills: <integer> }, apiVersions: { <appName1>: <string>, <appName2>: <string>, <appName3>: <string> }, aggStageCounters : { <aggregation stage> : Long("<num>") }, changeStreams: { largeEventsFailed: Long("<num>"), largeEventsSplit: Long("<num>"), showExpandedEvents: Long("<num>") }, commands: { <command>: { failed: Long("<num>"), validator: { total: Long("<num>"), failed: Long("<num>"), jsonSchema: Long("<num>") }, total: Long("<num>"), rejected: Long("<num>") } }, cursor : { moreThanOneBatch : Long("<num>"), timedOut : Long("<num>"), totalOpened : Long("<num>"), lifespan : { greaterThanOrEqual10Minutes : Long("<num>"), lessThan10Minutes : Long("<num>"), lessThan15Seconds : Long("<num>"), lessThan1Minute : Long("<num>"), lessThan1Second : Long("<num>"), lessThan30Seconds : Long("<num>"), lessThan5Seconds : Long("<num>") }, open : { noTimeout : Long("<num>"), pinned : Long("<num>"), multiTarget : Long("<num>"), singleTarget : Long("<num>"), total : Long("<num>") } }, document : { deleted : Long("<num>"), inserted : Long("<num>"), returned : Long("<num>"), updated : Long("<num>") }, dotsAndDollarsFields : { inserts : Long("<num>"), updates : Long("<num>") }, getLastError : { wtime : { num : <num>, totalMillis : <num> }, wtimeouts : Long("<num>"), default : { unsatisfiable : Long("<num>"), wtimeouts : Long("<num>") } }, mongos : { cursor : { moreThanOneBatch : Long("<num>"), totalOpened : Long("<num>") } }, network : { // Added in MongoDB 6.3 totalEgressConnectionEstablishmentTimeMillis : Long("<num>"), totalIngressTLSConnections : Long("<num>"), totalIngressTLSHandshakeTimeMillis : Long("<num>"), totalTimeForEgressConnectionAcquiredToWireMicros : Long("<num>"), totalTimeToFirstNonAuthCommandMillis : Long("<num>") "averageTimeToCompletedTLSHandshakeMicros": Long("<num>"), // Added in MongoDB 8.2 "averageTimeToCompletedHelloMicros": Long("<num>"), // Added in MongoDB 8.2 "averageTimeToCompletedAuthMicros": Long("<num>") // Added in MongoDB 8.2 }, operation : { killedDueToClientDisconnect : Long("<num>"), // Added in MongoDB 7.1 killedDueToDefaultMaxTimeMSExpired : Long("<num>"), killedDueToMaxTimeMSExpired : Long("<num>"), // Added in MongoDB 7.2 numConnectionNetworkTimeouts : Long("<num>"), // Added in MongoDB 6.3 scanAndOrder : Long("<num>"), totalTimeWaitingBeforeConnectionTimeoutMillis : Long("<num>"), // Added in MongoDB 6.3 unsendableCompletedResponses : Long("<num>"), // Added in MongoDB 7.1 writeConflicts : Long("<num>") }, operatorCounters : { expressions : { <command> : Long("<num>") }, match : { <command> : Long("<num>") } }, query: { allowDiskUseFalse: Long("<num>"), updateOneOpStyleBroadcastWithExactIDCount: Long("<num>"), lookup: { hashLookup: Long("<num>"), hashLookupSpillToDisk: Long("<num>"), indexedLoopJoin: Long("<num>"), nestedLoopJoin: Long("<num>") }, multiPlanner: { classicCount: Long("<num>"), classicMicros: Long("<num>"), classicWorks: Long("<num>"), sbeCount: Long("<num>"), sbeMicros: Long("<num>"), sbeNumReads: Long("<num>"), histograms: { classicMicros: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("1073741824"), count: Long("<num>")> }> ], classicNumPlans: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("32"), count: Long("<num>") } ], classicWorks: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("32768"), count: Long("<num>") } ], sbeMicros: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("1073741824"), count: Long("<num>") } ], sbeNumPlans: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("32"), count: Long("<num>") } ], sbeNumReads: [ { lowerBound: Long("0"), count: Long("<num>") }, { < Additional histogram groups not shown. > }, { lowerBound: Long("32768"), count: Long("<num>") } ] } }, planCache: { classic: { hits: Long("<num>"), misses: Long("<num>"), replanned: Long("<num>") }, sbe: { hits: Long("<num>"), misses: Long("<num>"), replanned: Long("<num>") } }, queryFramework: { aggregate: { classicHybrid: Long("<num>"), classicOnly: Long("<num>"), cqf: Long("<num>"), sbeHybrid: Long("<num>"), sbeOnly: Long("<num>") }, find: { classic: Long("<num>"), cqf: Long("<num>"), sbe: Long("<num>") } } }, queryExecutor: { scanned : Long("<num>"), scannedObjects : Long("<num>"), collectionScans : { nonTailable : Long("<num>"), total : Long("<num>") }, profiler : { collectionScans : { nonTailable : Long("<num>"), tailable : Long("<num>"), total : Long("<num>") } } }, record : { moves : Long("<num>") }, repl : { executor : { pool : { inProgressCount : <num> }, queues : { networkInProgress : <num>, sleepers : <num> }, unsignaledEvents : <num>, shuttingDown : <boolean>, networkInterface : <string> }, apply : { attemptsToBecomeSecondary : Long("<num>"), batchSize: <num>, batches : { num : <num>, totalMillis : <num> }, ops : Long("<num>") }, write : { batchSize: <num>, batches : { num : <num>, totalMillis : <num> } }, buffer : { write: { count : Long("<num>"), maxSizeBytes : Long("<num>"), sizeBytes : Long("<num>") }, apply: { count : Long("<num>"), sizeBytes : Long("<num>"), maxSizeBytes : Long("<num>"), maxCount: Long("<num>") }, }, initialSync : { completed : Long("<num>"), failedAttempts : Long("<num>"), failures : Long("<num>") }, network : { bytes : Long("<num>"), getmores : { num : <num>, totalMillis : <num> }, notPrimaryLegacyUnacknowledgedWrites : Long("<num>"), notPrimaryUnacknowledgedWrites : Long("<num>"), oplogGetMoresProcessed : { num : <num>, totalMillis : <num> }, ops : Long("<num>"), readersCreated : Long("<num>"), replSetUpdatePosition : { num : Long("<num>") } }, reconfig : { numAutoReconfigsForRemovalOfNewlyAddedFields : Long("<num>") }, stateTransition : { lastStateTransition : <string>, totalOperationsKilled : Long("<num>"), totalOperationsRunning : Long("<num>") }, syncSource : { numSelections : Long("<num>"), numTimesChoseSame : Long("<num>"), numTimesChoseDifferent : Long("<num>"), numTimesCouldNotFind : Long("<num>") }, waiters : { opTime : Long("<num>"), replication : Long("<num>") } }, storage : { freelist : { search : { bucketExhausted : <num>, requests : <num>, scanned : <num> } } }, ttl : { deletedDocuments : Long("<num>"), passes : Long("<num>"), subPasses : Long("<num>") } }
metricsUm documento que retorna várias estatísticas que refletem o uso atual e o estado de uma instância
mongodem execução.
metrics.abortExpiredTransactionsdocumento que retorna estatísticas sobre o estado atual do thread
abortExpiredTransactions.
metrics.abortExpiredTransactions.passesIndica o número de passagens bem-sucedidas abortando transação mais antigas que o parâmetro
transactionLifetimeLimitSeconds.Se o valor
passesparar de incrementar, isso indica que o threadabortExpiredTransactionspode estar preso.
metrics.abortExpiredTransactions.successfulKillsNúmero de transações expiradas encerradas com sucesso pelo MongoDB.
É feito check-out de uma sessão de um pool de sessões para executar operações de banco de dados .
AbortExpiredTransactionsSessionCheckoutTimeoutdefine o número máximo de milissegundos para que uma sessão seja verificada ao tentar encerrar uma transação expirada.Se a transação expirada for encerrada com êxito, o MongoDB incrementará
metrics.abortExpiredTransactions.successfulKills. Se a transação não for encerrada com êxito porque atingiu o tempo limite ao tentar verificar uma sessão, o MongoDB incrementarámetrics.abortExpiredTransactions.timedOutKills.Novidades na versão 8.0.13.
metrics.abortExpiredTransactions.timedOutKillsNúmero de transações expiradas encerradas sem sucesso pelo MongoDB porque atingiu o tempo limite ao tentar fazer check-out de uma sessão.
É feito check-out de uma sessão de um pool de sessões para executar operações de banco de dados .
AbortExpiredTransactionsSessionCheckoutTimeoutdefine o número máximo de milissegundos para que uma sessão seja verificada ao tentar encerrar uma transação expirada.Se a transação expirada for encerrada com êxito, o MongoDB incrementará
metrics.abortExpiredTransactions.successfulKills. Se a transação não for encerrada com êxito porque atingiu o tempo limite ao tentar verificar uma sessão, o MongoDB incrementarámetrics.abortExpiredTransactions.timedOutKills.Novidades na versão 8.0.13.
metrics.aggStageCountersUm documento que relata o uso de pipeline de agregação stages. Os campos em
metrics.aggStageCounterssão os nomes dos pipeline de agregação stages. Para cada etapa do pipeline, oserverStatusrelata o número de vezes que esse estágio foi executado.Atualizado na versão 5.2 (e 5.0.6).
metrics.apiVersionsUm documento que contém:
O nome de cada aplicativo cliente
A versão de API estável com a qual cada aplicativo foi configurado no período de 24 horas
Considere o seguinte ao visualizar
metrics.apiVersions:Os possíveis valores retornados para cada
appnamesão:default: O comando foi emitido sem uma versão de API estável especificada.1: O comando foi emitido com a Stable API versão 1.
Observação
Você pode ver ambos os valores de retorno para um
appnameporque é possível especificar uma versão da API estável no nível do comando. Alguns de seus comandos podem ter sido emitidos sem a versão da API estável, enquanto outros foram emitidos com a versão 1.As métricas de versão da API são mantidas por 24 horas. Se nenhum comando for emitido com uma versão de API específica de um aplicativo nas últimas 24 horas, esse
appnamee a versão de API serão removidos das métricas. Isso também se aplica à métrica de versão da APIdefault.Defina o
appnameao se conectar a uma instância MongoDB especificando oappnameno URI de conexão.?appName=ZZZdefineappnamecomoZZZZ.Os drivers que acessam a API estável podem definir um
appnamepadrão.Se nenhum
appnameestiver configurado, um valor padrão será preenchido automaticamente com base no produto. Por exemplo, para uma conexão do MongoDB Compass semappnameno URI, a métrica retorna:'MongoDB Compass': [ 'default' ].
Novidade na versão 5.0.
metrics.operatorCountersUm documento que relata o uso de operadores e expressões do aggregation pipeline.
metrics.operatorCounters.expressionsUm documento com um número que indica com que frequência as expressões são executadas.
Para obter métricas de um operador específico, como o operador maior que (
$gt), anexe o operador ao comando:db.runCommand( { serverStatus: 1 } ).metrics.operatorCounters.expressions.$gt Novidades na versão 5.0.
metrics.operatorCounters.matchUm documento com um número que indica com que frequência as expressões de correspondência são executadas.
Os operadores de expressão de correspondência também são incrementados como parte de um estágio
$matchdo aggregation pipeline. Se o estágio$matchusar o operador$expr, o contador de$exprserá incrementado, mas os contadores de componentes não serão incrementados.Considere a seguinte query:
db.matchCount.aggregate( [ { $match: { $expr: { $gt: [ "$_id", 0 ] } } } ] ) O contador para
$expré incrementado quando a query é executada. O contador para$gtnão.
metrics.changeStreams.largeEventsSplitO número de eventos de change stream superiores a 16 MB que foram divididos em fragmentos menores. Os eventos só serão divididos se você usar o estágio de pipeline
$changeStreamSplitLargeEvent.Novidade na versão 7.0: (Também disponível na 6.0.9)
metrics.changeStreamsUm documento que relata informações sobre eventos de change stream maiores que 16 MB.
Novidades na versão 7.0.
metrics.changeStreams.largeEventsFailedO número de eventos de change stream que causaram uma exceção
BSONObjectTooLargeporque o evento tinha mais de 16 MB. Para evitar a exceção, consulte$changeStreamSplitLargeEvent.Novo na versão 7.0:(Também disponível em 6.0.9 e 5.0.19)
metrics.changeStreams.showExpandedEventsO número de cursor de change stream com a opção showExpandedEvents definida como
true.O contador para
showExpandedEventsé incrementado quando você:Abra um cursor de change stream.
Execute o comando
explainem um cursor de change stream.
Novidade na versão 7.1.
metrics.commandsUm documento que relata o uso de comandos de banco de dados. Os campos em
metrics.commandssão os nomes dos comandos de banco de dados. Para cada comando, oserverStatusrelata o número total de execuções e o número de execuções com falha.metrics.commandsincluireplSetStepDownWithForce(ou seja, o comandoreplSetStepDowncomforce: true), bem como oreplSetStepDowngeral. Nas versões anteriores, o comando relatava apenas as métricasreplSetStepDowngerais.
metrics.commands.<command>.failedO número de vezes que
<command>falhou nestemongod.
metrics.commands.<create or collMod>.validatorPara os comandos
createecollMod, um documento que relata objetosvalidatornão vazios passados para o comando para especificar regras ou expressões de validação para a coleção.
metrics.commands.<create or collMod>.validator.totalO número de vezes que um objeto
validatornão vazio foi passado como uma opção para o comando nessemongod.
metrics.commands.<create or collMod>.validator.failedO número de vezes que uma chamada para o comando nesse
mongodfalhou com um objetovalidatornão vazio devido a um erro de validação de esquema.
metrics.commands.<create or collMod>.validator.jsonSchemaO número de vezes que um objeto
validatorcom$jsonSchemafoi passado como uma opção para o comando nessemongod.
metrics.commands.<command>.totalO número de vezes que
<command>executou nestemongod.
metrics.commands.<command>.rejectedO número de vezes que
<command>foi rejeitado nestemongodporque o comando ou operação tem uma configuração de consulta associada onde o camporejectétrue.Para definir o campo
reject, usesetQuerySettings.Novidades na versão 8.0.
metrics.commands.update.pipelineO número de vezes que um aggregation pipeline foi usado para atualizar documentos neste
mongod. Subtraia esse valor do número total de atualizações para obter o número de atualizações feitas com a sintaxe do documento.O contador
pipelineestá disponível apenas para operaçõesupdateefindAndModify.
metrics.commands.findAndModify.pipelineO número de vezes que
findAndModify()foi usado em um aggregation pipeline para atualizar documentos sobre essemongod.O contador
pipelineestá disponível apenas para operaçõesupdateefindAndModify.
metrics.commands.update.arrayFiltersO número de vezes que um arrayFilter foi usado para atualizar documentos neste
mongod.O contador
arrayFiltersestá disponível apenas para operaçõesupdateefindAndModify.
metrics.commands.findAndModify.arrayFiltersO número de vezes que um arrayFilter foi usado com
findAndModify()para atualizar documentos nestemongod.O contador
arrayFiltersestá disponível apenas para operaçõesupdateefindAndModify.
metrics.documentUm documento que reflete os padrões de acesso e modificação do documento. Compare esses valores com os dados do documento
opcounters, que acompanha o número total de operações.
metrics.document.updatedO número total de documentos correspondentes para operações de atualização. Esse valor não é necessariamente igual ao número de documentos modificados por atualizações.
metrics.dotsAndDollarsFieldsUm documento com um número que indica a frequência com que as operações de inserção ou atualização foram executadas usando um nome prefixado em dólar (
$). O valor não informa o número exato de operações.Quando uma operação upsert cria um novo documento, ele é considerado um
insertem vez de umupdate.Novidades na versão 5.0.
metrics.getLastErrorUm documento que relata o uso de write concern.
metrics.getLastError.wtimeUm documento que relata a operação de write concern conta com um argumento de
wmaior que1.
metrics.getLastError.wtime.numO número total de operações com write concern especificado (ou seja,
w) que esperam que um ou mais nós de um conjunto de réplicas reconheçam a operação de escrita (ou seja, um valorwmaior que1).
metrics.getLastError.wtime.totalMillisA quantidade total de tempo, em milissegundos, que o
mongodgastou executando operações de write concern com um write concern (ou seja,w) que espera que um ou mais nós de um conjunto de réplicas reconheçam a operação de escrita (ou seja, um valorwmaior que1).
metrics.getLastError.wtimeoutsO número de vezes que as operações de write concern atingiram o tempo limite como resultado do limite
wtimeout. Esse número aumenta para especificações de write concern padrão e não padrão.
metrics.getLastError.defaultUm documento que relata quando um write concern padrão foi usado (ou seja, um write concern não
clientSupplied). As possíveis origens de um write concern padrão são:implicitDefaultcustomDefaultgetLastErrorDefaults
Consulte a tabela a seguir para obter informações sobre cada possível origem de write concern, ou
provenance:ProveniênciaDescriçãoclientSuppliedA preocupação de gravação foi especificada no aplicativo.
customDefaultA preocupação de gravação originou-se de um valor padrão personalizado definido. Consulte
setDefaultRWConcern.getLastErrorDefaultsA preocupação de gravação originada do campo
settings.getLastErrorDefaultsdo conjunto de réplicas.implicitDefaultA preocupação de gravação originou-se do servidor na ausência de todas as outras especificações de preocupação de gravação.
metrics.getLastError.default.unsatisfiableNúmero de vezes que um write concern diferente de
clientSuppliedretornou o código de erroUnsatisfiableWriteConcern.
metrics.getLastError.default.wtimeoutsNúmero de vezes que um write concern não
clientSuppliedexpirou.
metrics.mongosUm documento que contém métricas sobre
mongos.
metrics.mongos.cursorUm documento que contém métricas para cursores usados por
mongos.
metrics.mongos.cursor.moreThanOneBatchO número total de cursores que retornaram mais de um lote desde que
mongoscomeçou. Lotes adicionais são recuperados usando o comandogetMore.Novidades na versão 5.0.
metrics.mongos.cursor.totalOpenedO número total de cursores que foram abertos desde que
mongosiniciou, incluindo cursores atualmente abertos. Difere demetrics.cursor.open.total, que é o número de cursores abertos no momento.Novidades na versão 5.0.
metrics.network.totalEgressConnectionEstablishmentTimeMillisNovidades na versão 6.3.
O tempo total em milissegundos para estabelecer conexões de servidor.
metrics.network.totalIngressTLSConnectionsNovidades na versão 6.3.
O número total de conexões de entrada com o servidor que usam TLS. O número é cumulativo e é o total após o início do servidor.
metrics.network.totalIngressTLSHandshakeTimeMillisNovidades na versão 6.3.
O tempo total, em milissegundos, que as conexões de entrada com o servidor precisam esperar para que o handshake de rede TLS seja concluído. O número é cumulativo e é o total após o início do servidor.
metrics.network.totalTimeForEgressConnectionAcquiredToWireMicrosNovidades na versão 6.3.
Tempo total em microssegundos que as operações esperam entre a aquisição de uma conexão com o servidor e a gravação dos bytes para enviar ao servidor pela rede. O número é cumulativo e é o total após o início do servidor.
metrics.network.totalTimeToFirstNonAuthCommandMillisNovidades na versão 6.3.
O tempo total em milissegundos a partir da aceitação de conexões de entrada no servidor e do recebimento da primeira operação que não faz parte do handshake de autenticação de conexão. O número é cumulativo e é o total após o início do servidor.
metrics.network.averageTimeToCompletedTLSHandshakeMicrosNovidade na versão 8.2: (também disponível na 8.1.1)
O tempo médio (em microssegundos) necessário para completar um handshake TLS em conexões de entrada.
metrics.network.averageTimeToCompletedHelloMicrosNovidade na versão 8.2: (também disponível na 8.1.1)
O tempo (em microssegundos) entre o início do estabelecimento da conexão e a conclusão do comando
hello. Você pode usar esta métrica para ajustar oingressConnectionEstablishmentMaxQueueDepthe oingressConnectionEstablishmentRatePerSecpara garantir que haja tempo adequado alocado para concluir o estabelecimento da conexão após a saída da fila.
metrics.network.averageTimeToCompletedAuthMicrosNovidade na versão 8.2: (também disponível na 8.1.1)
O tempo (em microssegundos) que a troca de autenticação SASL leva para ser concluída após o início do estabelecimento da conexão.
metrics.operationUm documento que contém contadores para vários tipos de operações de atualização e query que o MongoDB lida com o uso de tipos de operação especiais.
metrics.operation.killedDueToClientDisconnectNovidade na versão 7.1.
Número total de operações canceladas antes da conclusão porque o cliente se desconectou.
metrics.operation.killedDueToDefaultMaxTimeMSExpiredNovidades na versão 8.0.
Número total de operações cujo tempo limite expirou devido ao tempo limite padrão no nível do cluster,
defaultMaxTimeMS.
metrics.operation.killedDueToMaxTimeMSExpiredNovidade na versão 7.2.
Número total de operações que excederam o tempo limite devido ao tempo limite no nível da operação,
cursor.maxTimeMS().
metrics.operation.numConnectionNetworkTimeoutsNovidades na versão 6.3.
Número total de operações que falharam devido a erros de tempo de aquisição da conexão do servidor.
metrics.operation.scanAndOrderO número total de queries que retornam números classificados que não podem executar a operação de classificação usando um índice.
metrics.operation.totalTimeWaitingBeforeConnectionTimeoutMillisNovidades na versão 6.3.
Tempo total em milissegundos que as operações esperavam antes de falhar devido a erros de aquisição de conexão do servidor.
metrics.operation.unsendableCompletedResponsesNovidade na versão 7.1.
Número total de operações que foram concluídas no lado do servidor, mas não enviaram sua resposta ao cliente porque a conexão entre o cliente e o servidor falhou ou foi desconectada.
metrics.query.lookupUm documento que fornece dados detalhados sobre o uso do estágio
$lookupcom o mecanismo de execução de query baseado em slot. Para saber mais, consulte Otimização de$lookup.Essas métricas destinam-se principalmente ao uso interno pelo MongoDB.
Novidades na versão 6.1
metrics.query.multiPlannerFornece dados detalhados de planejamento de query para o mecanismo de execução de queries baseado em slot e o mecanismo de query clássico. Para obter mais informações sobre o mecanismo de execução de queries baseado em slot, consulte: Otimizações de pipeline do mecanismo de execução de queries baseado em slot.
Essas métricas destinam-se principalmente ao uso interno pelo MongoDB.
Novidades na versão 6.0.0 e 5.0.9
metrics.query.sortUm documento que contém contadores relacionados a estágios de classificação.
Novidades na versão 6.2.
metrics.query.sort.spillToDiskO número total de gravações em disco causadas por estágios de classificação.
Novidades na versão 6.2.
metrics.query.sort.totalBytesSortedA quantidade total de dados classificados em bytes.
Novidades na versão 6.2.
metrics.query.sort.totalKeysSortedO número total de chaves usadas em classificações.
Novidades na versão 6.2.
query.multiPlanner.classicMicrosAgrega o número total de microssegundos gastos no multiplanejador clássico.
query.multiPlanner.classicWorksAgrega o número total de "trabalhos" realizados no multiplanejador clássico.
query.multiPlanner.sbeMicrosAgrega o número total de microssegundos gastos no multiplanejador do mecanismo de execução baseado em slot.
query.multiPlanner.sbeNumReadsAgrega o número total de leituras realizadas no multiplanejador do mecanismo de execução baseado em slot.
query.multiPlanner.sbeCountAgrega o número total de invocações do multiplanejador do mecanismo de execução baseado em slot.
query.multiPlanner.histograms.classicMicrosUm histograma medindo o número de microssegundos gastos em uma invocação do multiplanejador clássico.
query.multiPlanner.histograms.classicWorksUm histograma que mede o número de "trabalhos" realizados durante uma invocação do multiplanejador clássico.
query.multiPlanner.histograms.classicNumPlansUm histograma medindo o número de planos no conjunto de candidatos durante uma invocação do multiplanejador clássico.
query.multiPlanner.histograms.sbeMicrosUm histograma medindo o número de microssegundos gastos em uma invocação do multiplanejador do mecanismo de execução baseado em slot.
query.multiPlanner.histograms.sbeNumReadsUm histograma medindo o número de leituras durante uma invocação do multiplanejador do mecanismo de execução baseado em slot.
query.multiPlanner.histograms.sbeNumPlansUm histograma medindo o número de planos no conjunto de candidatos durante uma invocação do multiplanejador do mecanismo de execução baseado em slot.
query.queryFramework.aggregateUm documento que relata o número de operações de aggregation executadas em cada framework de query. Os subcampos em
query.queryFramework.aggregateindicam o número de vezes que cada framework foi usado para executar uma operação de aggregation.
query.queryFramework.findUm documento que relata o número de operações de localização executadas em cada framework de query. Os subcampos em
query.queryFramework.findindicam o número de vezes que cada framework foi usado para executar uma operação de localização.
metrics.queryExecutor.scannedO número total de itens de índice verificados durante queries e avaliação do plano de queries. Este contador é o mesmo que
totalKeysExaminedna saída deexplain().
metrics.queryExecutor.scannedObjectsO número total de documentos digitalizados durante queries e avaliação do plano de queries. Este contador é o mesmo que
totalDocsExaminedna saída deexplain().
metrics.queryExecutor.collectionScansUm documento que relata o número de queries que realizaram uma varredura de collection.
metrics.queryExecutor.collectionScans.nonTailableO número de queries que executaram uma varredura de collection que não usou um cursor tailable.
metrics.queryExecutor.collectionScans.totalO número total de queries que executou uma varredura de collection. O total consiste em queries que usaram e não usaram um cursor tailable.
metrics.queryExecutor.profiler.collectionScans.nonTailableO número de queries que executaram uma verificação de collection em uma collection
profileque não usou um cursor persistente.
metrics.queryExecutor.profiler.collectionScans.tailableO número de queries que executaram uma verificação de collection em uma collection
profileque usou um cursor persistente.
metrics.queryExecutor.profiler.collectionScans.totalO número total de queries que executaram uma verificação de collection em uma collection
profile. Isso inclui queries que usaram cursores tailable e não tailable.
metrics.recordUm documento que reporta dados relacionados à alocação de registros nos arquivos de memória em disco.
metrics.replUm documento que comunica métricas relacionadas ao processo de replicação. O documento
metrics.replaparece em todas as instânciasmongod, mesmo naquelas que não são membros de conjuntos de réplicas.
metrics.repl.applyUm documento que reporta a aplicação de operações a partir do oplog de replicação.
metrics.repl.apply.batchSizeO número total de operações de oplog aplicadas.
metrics.repl.apply.batchSizeé incrementado com o número de operações em um lote nos limites do lote, em vez de ser incrementado uma vez após cada operação.Para granularidade mais fina, consulte
metrics.repl.apply.ops.
metrics.repl.apply.batchesmetrics.repl.apply.batchesreporta sobre o processo do aplicativo oplog em nós secundários de conjuntos de réplicas. Consulte Replicação multithreaded para obter mais informações sobre os processos do aplicativo oplog.
metrics.repl.apply.batches.totalMillisA quantidade total de tempo, em milissegundos, que o
mongodgastou aplicando operações de oplog.
metrics.repl.apply.opsO número total de operações de oplog aplicadas.
metrics.repl.apply.opsé incrementado após cada operação.
metrics.repl.write.batchSizeNúmero total de entradas gravadas no oplog. Essa métrica é atualizada com o número de entradas em cada lote à medida que o membro termina de gravar o lote no oplog.
Novidades na versão 8.0.
metrics.repl.write.batchesDocumento que relata sobre o processo de gravação do oplog para membros secundários.
Novidades na versão 8.0.
metrics.repl.write.batches.numNúmero total de lotes gravados em todos os bancos de dados.
Novidades na versão 8.0.
metrics.repl.write.batches.totalMillisTempo total em milissegundos que o membro gastou gravando entradas no oplog.
Novidades na versão 8.0.
metrics.repl.bufferO MongoDB oferece buffers de operações de oplog do buffer de origem de sincronização de replicação antes de aplicar entradas de oplog em um lote.
metrics.repl.bufferfornece uma maneira de rastrear buffers de oplog. Consulte replicação multithreaded para ver mais informações sobre o processo do aplicativo do oplog.Alterado na versão 8.0.
A partir do MongoDB 8.0, os secundários agora atualizam o oplog local e aplicam as alterações no banco de dados em paralelo. Para cada lote de entradas oplog, o MongoDB utiliza dois buffers:
O buffer
writerecebe novas entradas de oplog do primário. O editor adiciona essas entradas ao oplog local e as envia para o aplicativo.O buffer
applyrecebe novas entradas de oplog do escritor. O aplicador usa essas entradas para atualizar o banco de dados local.
Essa é uma alteração interruptiva, pois descontinua a métrica de status
metrics.repl.buffermais antiga.
metrics.repl.buffer.applyFornece informações sobre o status do buffer de aplicação do oplog.
Novidades na versão 8.0.
metrics.repl.buffer.apply.countO número atual de operações no buffer de aplicação do oplog.
Novidades na versão 8.0.
metrics.repl.buffer.apply.maxCountNúmero máximo de operações no buffer de aplicação do oplog.
mongoddefine esse valor usando uma constante, que não é configurável.Novidades na versão 8.0.
metrics.repl.buffer.apply.maxSizeBytesTamanho máximo do buffer de aplicação.
mongoddefine esse tamanho usando uma constante, que não é configurável.Novidades na versão 8.0.
metrics.repl.buffer.apply.sizeBytesO tamanho atual do conteúdo do buffer de aplicação do oplog.
Novidades na versão 8.0.
metrics.repl.buffer.countObsoleto desde a versão 8.0.
A partir de MongoDB 8.0, os secundários usam buffers separados para gravar e aplicar entradas oplog. Para saber o número atual de operações nos buffers do oplog, consulte as métricas de status
apply.countouwrite.count.
metrics.repl.buffer.maxSizeBytesObsoleto desde a versão 8.0.
A partir de MongoDB 8.0, os secundários usam buffers separados para gravar e aplicar entradas oplog. Para saber o tamanho máximo dos buffers, consulte as métricas de status
apply.maxSizeBytesouwrite.maxSizeBytes.
metrics.repl.buffer.sizeBytesObsoleto desde a versão 8.0.
A partir do MongoDB 8.0, os secundários usam buffers separados para escrever e aplicar entradas de oplog. Para saber o tamanho atual dos buffers do oplog, consulte as métricas de status
apply.sizeBytesouwrite.sizeBytes.
metrics.repl.buffer.writeFornece informações sobre o status do buffer de gravação do oplog.
Novidades na versão 8.0.
metrics.repl.buffer.write.countO número atual de operações no buffer de gravação do oplog.
Novidades na versão 8.0.
metrics.repl.buffer.write.maxSizeBytesTamanho máximo do buffer de gravação.
mongoddefine esse valor usando uma constante, que não é configurável.Novidades na versão 8.0.
metrics.repl.buffer.write.sizeBytesO tamanho atual do conteúdo do buffer de gravação do oplog.
Novidades na versão 8.0.
metrics.repl.networkmetrics.repl.networkreporta o uso da rede pelo processo de replicação.
metrics.repl.network.bytesmetrics.repl.network.bytesreporta a quantidade total de leitura de dados da origem de sincronização de replicação.
metrics.repl.network.getmoresmetrics.repl.network.getmorescomunica as operaçõesgetmore, que são solicitações de mais resultados do cursor oplog como parte do processo de replicação do oplog.
metrics.repl.network.getmores.nummetrics.repl.network.getmores.numreporta o número total de operaçõesgetmore. Essas operações solicitam um conjunto adicional de operações da origem de sincronização de replicação.
metrics.repl.network.getmores.totalMillismetrics.repl.network.getmores.totalMilliscomunica o tempo total necessário para coletar dados das operaçõesgetmore.Observação
Esse número pode ser bem grande, pois o MongoDB aguardará mais dados mesmo que a operação
getmorenão retorne dados inicialmente.
metrics.repl.network.getmores.numEmptyBatchesO número de lotes
oplogvazios que um secundário recebe de sua origem de sincronização. Um secundário recebe um lote vazio se estiver totalmente sincronizado com sua origem e se:getmoreatinge o tempo limite aguardando mais dados ouO ponto de commit da maioria da origem de sincronização avançou desde o último lote enviado para este secundário.
Para um primary, se a instância era anteriormente secundária, o número relata os lotes vazios recebidos quando era secundário. Caso contrário, para um primary, esse número é
0.
metrics.repl.network.notPrimaryLegacyUnacknowledgedWritesO número de operações de gravação legadas não reconhecidas (
w: 0) (consulte Códigos de operação) que falharam porque omongodatual não está no estadoPRIMARY.
metrics.repl.network.notPrimaryUnacknowledgedWritesO número de operações de gravação não reconhecidas (
w: 0) que falharam porque omongodatual não está no estadoPRIMARY.
metrics.repl.network.oplogGetMoresProcessedUm documento que reporta o número de comandos
getMorepara buscar o oplog que um nó processou como origem de sincronização.
metrics.repl.network.oplogGetMoresProcessed.numO número de comandos
getMorepara buscar o oplog que um nó processou como uma origem de sincronização.
metrics.repl.network.oplogGetMoresProcessed.totalMillisO tempo, em milissegundos, que o nó passou processando os comandos
getMorecontabilizados emmetrics.repl.network.oplogGetMoresProcessed.num.
metrics.repl.network.readersCreatedO número total de processos de query do oplog criados. O MongoDB criará uma nova query do oplog quando quer que ocorra um erro na conexão, incluindo de tempo limite ou uma operação de rede. Além disso,
metrics.repl.network.readersCreatedincrementará toda vez que o MongoDB selecionar uma nova origem para replicação.
metrics.repl.network.replSetUpdatePositionUm documento que relata o número de comandos do
replSetUpdatePositionque um nó enviou para sua origem de sincronização.
metrics.repl.network.replSetUpdatePosition.numO número de comandos
replSetUpdatePositionque um nó enviou para sua origem de sincronização. Os comandosreplSetUpdatePositionsão comandos internos de replicação que comunicam o progresso da replicação dos nós para suas origens de sincronização.Observação
Os nós do conjunto de réplicas no estado
STARTUP2não enviam o comandoreplSetUpdatePositionpara sua origem de sincronização.
metrics.repl.reconfigUm documento contendo o número de vezes que os campos do nó
newlyAddedforam automaticamente removidos pelo primary. Quando um nó é adicionado pela primeira vez ao conjunto de réplicas, o camponewlyAddeddo nó é configurado paratrue.Novidades na versão 5.0.
metrics.repl.reconfig.numAutoReconfigsForRemovalOfNewlyAddedFieldsO número de vezes que
newlyAddedcampos de nós foram automaticamente removidos pelo primary. Quando um nó é adicionado pela primeira vez ao conjunto de réplicas, o camponewlyAddeddo nó é configurado paratrue. Depois que o primary recebe a resposta de heartbeat do membro indicando que o estado do nó éSECONDARY,RECOVERINGouROLLBACK, o primary remove automaticamente o camponewlyAddeddo nó. Os campos donewlyAddedsão armazenados na collectionlocal.system.replset.Novidades na versão 5.0.
metrics.repl.stateTransitionInformações sobre operações do usuário quando o nó passa por uma das seguintes transições que podem interromper as operações do usuário:
O nó avança para se tornar um primary.
O nó recua para se tornar secundário.
O nó está executando ativamente um rollback.
metrics.repl.stateTransition.lastStateTransitionA transição que está sendo relatada:
Mudança de estadoDescrição"stepUp"O nó avança para se tornar um primary.
"stepDown"O nó recua para se tornar secundário.
"rollback"O nó está executando ativamente um rollback.
""O nó não sofreu nenhuma alteração de estado.
metrics.repl.stateTransition.totalOperationsKilledO número total de operações interrompidas durante a alteração de estado da instância
mongod.Novidade na versão 7.3:
totalOperationsKilledsubstituiuserOperationsKilled
metrics.repl.stateTransition.totalOperationsRunningO número total de operações que permaneceram em execução durante a mudança de estado da instância
mongod.Novidade na versão 7.3:
totalOperationsRunningsubstituiuserOperationsRunning
metrics.repl.stateTransition.userOperationsKilledObsoleto desde a versão 7.3:
totalOperationsKilledsubstituiuserOperationsKilled.
metrics.repl.stateTransition.userOperationsRunningObsoleto desde a versão 7.3:
totalOperationsRunningsubstituiuserOperationsRunning.
metrics.repl.syncSourceInformações sobre o processo de seleção da origem de sincronização de um nó de conjunto de réplicas.
metrics.repl.syncSource.numSelectionsNúmero de vezes que um nó tentou escolher um nó para sincronizar dentre as opções de origem de sincronização disponíveis. Um nó tenta escolher um nó para sincronizar se, por exemplo, a origem de sincronização for reavaliada ou se o nó receber um erro de sua origem de sincronização atual.
metrics.repl.syncSource.numTimesChoseSameNúmero de vezes que um nó manteve sua origem de sincronização original após reavaliar se sua origem de sincronização atual foi ideal.
metrics.repl.syncSource.numTimesChoseDifferentNúmero de vezes que um nó escolheu uma nova origem de sincronização após reavaliar se a origem de sincronização atual era a ideal.
metrics.repl.syncSource.numTimesCouldNotFindNúmero de vezes que um nó não conseguiu encontrar uma origem de sincronização disponível ao tentar escolher um nó para sincronizar.
metrics.repl.waiters.replicationO número de threads que aguardam confirmações de write concern replicadas ou registradas no diário.
Novidades na versão 7.3.
metrics.repl.waiters.opTimeO número de threads em fila para atribuições de optime de replicação local.
Novidades na versão 7.3.
metrics.storage.freelist.search.bucketExhaustedO número de vezes que o
mongodexaminou a lista livre sem encontrar uma grande alocação de registro.
metrics.storage.freelist.search.requestsO número de vezes que
mongodpesquisou alocações de registro disponíveis.
metrics.storage.freelist.search.scannedO número de alocações de registro disponíveis que o
mongodpesquisou.
metrics.ttlUm documento que reporta a operação do uso do recurso do processo de índice TTL.
metrics.ttl.deletedDocumentsO número total de documentos excluídos de collections com um índice TTL.
metrics.ttl.passesNúmero de passes realizados pelo processo TTL em segundo plano para verificar se há documentos expirados. Uma passagem é concluída quando o monitor TTL tiver excluído o máximo de documentos candidatos que puder encontrar em todos os índices TTL. Para obter mais informações sobre o processo de exclusão do índice TTL, consulte Processo de exclusão.
metrics.ttl.subPassesNúmero de subpassagens realizadas pelo processo em segundo plano do TTL para verificar documentos expirados. Para obter mais informações sobre o processo de exclusão do índice TTL, consulte Processo de exclusão.
metrics.cursor.moreThanOneBatchO número total de cursores que retornaram mais de um lote desde o início do processo do servidor. Os lotes adicionais são recuperados usando o comando
getMore.Novidades na versão 5.0.
metrics.cursor.timedOutO número total de cursores que atingiram o tempo limite desde o início do processo do servidor. Se esse número for grande ou estiver crescendo regularmente, isso pode indicar um erro no aplicativo.
metrics.cursor.totalOpenedO número total de cursores que foram abertos desde o início do processo do servidor, incluindo cursores abertos agora. É diferente de
metrics.cursor.open.total, que é apenas o número de cursores abertos agora.Novidades na versão 5.0.
metrics.cursor.lifespanUm documento que reporta o número de cursores que têm duração dentro de períodos especificados. A duração do cursor é o período de tempo de quando o cursor é criado até quando o cursor é eliminado usando o comando
killCursorsou o cursor não tem objetos restantes no lote.Os períodos de duração são:
< 1 segundo
>= 1 segundo a < 5 segundos
>= 5 segundos a < 15 segundos
>= 15 segundos a < 30 segundos
>= 30 segundos a < 1 minuto
>= 1 minuto a < 10 minutos
>= 10 minutos
Novidades na versão 5.0.
metrics.cursor.lifespan.greaterThanOrEqual10MinutesO número de cursores com duração >= 10 minutos.
Novidades na versão 5.0.
metrics.cursor.lifespan.lessThan10MinutesO número de cursores com duração >= 1 minuto a < 10 minutos.
Novidades na versão 5.0.
metrics.cursor.lifespan.lessThan15SecondsO número de cursores com duração > = 5 segundos a < 15 segundos.
Novidades na versão 5.0.
metrics.cursor.lifespan.lessThan1MinuteO número de cursores com duração >= 30 segundos a < 1 minuto.
Novidades na versão 5.0.
metrics.cursor.lifespan.lessThan1SecondO número de cursores com duração < 1 segundo.
Novidades na versão 5.0.
metrics.cursor.lifespan.lessThan30SecondsO número de cursores com duração >= 15 segundos a < 30 segundos.
Novidades na versão 5.0.
metrics.cursor.lifespan.lessThan5SecondsO número de cursores com duração >= 1 segundo a < 5 segundos.
Novidades na versão 5.0.
metrics.cursor.open.noTimeoutO número de cursores abertos com a opção
DBQuery.Option.noTimeoutdefinida para evitar o tempo limite após um período de inatividade.
metrics.cursor.open.totalO número de cursores que o MongoDB está mantendo para os clientes. Como o MongoDB exausta cursores não utilizados, normalmente esse valor é pequeno ou zero. No entanto, se houver uma fila, ou cursors tailable, ou um grande número de operações, esse valor pode aumentar.
metrics.cursor.open.singleTargetO número total de cursores que visam um único fragmento. Somente instâncias
mongoscomunicam valores demetrics.cursor.open.singleTarget.
metrics.cursor.open.multiTargetO número total de cursores direcionados apenas a mais de um fragmento. Somente instâncias
mongosreportam valores demetrics.cursor.open.multiTarget.
mirroredReads
Disponível apenas em mongod.
"mirroredReads" : { "seen" : <num>, "sent" : <num> },
mirroredReadsDisponível apenas em mongod.
Um documento que reporta leituras espelhadas. Para retornar informações
mirroredReads, você deve especificar explicitamente a inclusão:db.runCommand( { serverStatus: 1, mirroredReads: 1 } ) mirroredReads.processedAsSecondaryNovidades na versão 6.2.
O número de leituras espelhadas processadas por este nó enquanto secundário.
Dica
mirrorReadsParâmetro
mirroredReads.seenO número de operações que permitem espelhamento recebido por este nó.
Dica
mirrorReadsParâmetro
mirroredReads.sentO número de leituras espelhadas enviadas por este nó quando primary. Por exemplo, se uma leitura é espelhada e enviada para dois secundários, o número de leituras espelhadas é
2.Dica
mirrorReadsParâmetro
network
network : { bytesIn : Long("<num>"), bytesOut : Long("<num>"), physicalBytesIn : Long("<num>"), physicalBytesOut : Long("<num>"), numSlowDNSOperations : Long("<num>"), numSlowSSLOperations : Long("<num>"), numRequests : Long("<num>"), tcpFastOpen : { kernelSetting : Long("<num>"), serverSupported : <bool>, clientSupported : <bool>, accepted : Long("<num>") }, compression : { snappy : { compressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") }, decompressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") } }, zstd : { compressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") }, decompressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") } }, zlib : { compressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") }, decompressor : { bytesIn : Long("<num>"), bytesOut : Long("<num>") } } }, serviceExecutors : { passthrough : { threadsRunning : <num>, clientsInTotal : <num>, clientsRunning : <num>, clientsWaitingForData : <num> }, fixed : { threadsRunning : <num>, clientsInTotal : <num>, clientsRunning : <num>, clientsWaitingForData : <num> } }, listenerProcessingTime : { durationMicros : <num> } // Added in MongoDB 6.3 }
networkUm documento que reporta dados sobre o uso da rede do MongoDB. Essas estatísticas medem apenas as conexões de entrada, especificamente o tráfego visto pelo
mongodoumongosem conexões de rede iniciadas por clientes ou outras instânciasmongodoumongos. O tráfego das conexões de rede iniciadas por essa instânciamongodoumongos(especificamente, conexões de saída) não é medido nessas estatísticas.
network.bytesInO número total de bytes lógicos que o servidor recebeu por conexões de rede iniciadas por clientes ou outras instâncias do
mongodoumongos. Os bytes lógicos são o número exato de bytes que um determinado arquivo contém.
network.bytesOutO número total de bytes lógicos que o servidor enviou por meio de conexões de rede iniciadas por clientes ou outras instâncias
mongodoumongos. Os bytes lógicos correspondem ao número de bytes que um determinado arquivo contém.
network.physicalBytesInO número total de bytes físicos que o servidor recebeu através de conexões de rede iniciadas por clientes ou outras instâncias
mongodoumongos. Bytes físicos são o número de bytes que realmente residem no disco.
network.physicalBytesOutO número total de bytes físicos que o servidor enviou por meio de conexões de rede iniciadas por clientes ou outras instâncias
mongodoumongos. Bytes físicos são o número de bytes que realmente residem no disco.
network.numSlowDNSOperationsO número total de operações de resolução de DNS que demoraram mais de 1 segundo.
network.numSlowSSLOperationsO número total de operações de handshake SSL que demoraram mais de 1 segundo.
network.numRequestsO número total de solicitações distintas que o servidor recebeu. Use esse valor para contextualizar para os valores
network.bytesInenetwork.bytesOutpara garantir que a utilização da rede do MongoDB seja consistente com as expectativas e o uso do aplicativo.
network.tcpFastOpenUm documento que reporta dados sobre o suporte e uso do MongoDB de conexões TCP Fast Open (TFO).
network.tcpFastOpen.kernelSettingLinux only
Retorna o valor de
/proc/sys/net/ipv4/tcp_fastopen:0- O TCP Fast Open está desabilitado no sistema.1- O TCP Fast Open está habilitado para conexões de saída.2- O TCP Fast Open está habilitado para conexões de entrada.3- O TCP Fast Open está habilitado para conexões de entrada e saída.
network.tcpFastOpen.serverSupportedRetorna
truese o sistema operacional do host permitir conexões TCP Fast Open (TFO) de entrada.Retorna
falsese o sistema operacional do host não permitir conexões TCP Fast Open (TFO) de entrada.
network.tcpFastOpen.clientSupportedRetorna
truese o sistema operacional do host permitir conexões TCP Fast Open (TFO) de saída.Retorna
falsese o sistema operacional do host não permitir conexões TCP Fast Open (TFO) de saída.
network.tcpFastOpen.acceptedO número total de conexões TCP Fast Open (TFO) de entrada aceitas para
mongodoumongosdesde a última inicialização demongodoumongos.
network.compressionUm documento que reporta a quantidade de dados compactados e descompactados por cada biblioteca de compressor de rede.
network.compression.snappyUm documento que retorna estatísticas sobre o número de bytes que foram compactados e descompactados com a biblioteca snappy.
network.compression.zstdUm documento que retorna estatísticas sobre o número de bytes que foram compactados e descompactados com a biblioteca zstd.
network.compression.zlibUm documento que retorna estatísticas sobre o número de bytes que foram compactados e descompactados com a biblioteca zlib.
network.serviceExecutorsNovidades na versão 5.0.
Um documento que reporta dados sobre os executores de serviço, que executam operações para solicitações do cliente.
network.serviceExecutors.passthroughNovidades na versão 5.0.
Um documento que reporta dados sobre os threads e clientes para o executor de serviço
passthrough. O executor de serviçopassthroughcria um novo thread para cada cliente e destrói o thread após o término do cliente.
network.serviceExecutors.passthrough.threadsRunningNovidades na versão 5.0.
Número de threads em execução no executor de serviço
passthrough.
network.serviceExecutors.passthrough.clientsInTotalNovidades na versão 5.0.
Número total de clientes alocados ao executor de serviço
passthrough. Um cliente pode ser alocado para o executor de serviçopassthroughe não está executando solicitações atualmente.
network.serviceExecutors.passthrough.clientsRunningNovidades na versão 5.0.
Número de clientes que atualmente usam o executor de serviço
passthroughpara executar solicitações.
network.serviceExecutors.passthrough.clientsWaitingForDataNovidades na versão 5.0.
Número de clientes que usam o executor de serviço
passthroughque estão aguardando dados de entrada da rede.
network.serviceExecutors.fixedNovidades na versão 5.0.
Um documento que reporta dados sobre os threads e clientes para o executor de serviço
fixed. O executor de serviçofixedtem um número fixo de threads. Um thread é atribuído temporariamente a um cliente e preservado após o término do cliente.
network.serviceExecutors.fixed.threadsRunningNovidades na versão 5.0.
Número de threads em execução no executor de serviço
fixed.
network.serviceExecutors.fixed.clientsInTotalNovidades na versão 5.0.
Número total de clientes alocados ao executor de serviço
fixed. Um cliente pode ser alocado para o executor de serviçofixede não está executando solicitações atualmente.
network.serviceExecutors.fixed.clientsRunningNovidades na versão 5.0.
Número de clientes que atualmente usam o executor de serviço
fixedpara executar solicitações.
network.serviceExecutors.fixed.clientsWaitingForDataNovidades na versão 5.0.
Número de clientes que usam o executor de serviço
fixedque estão aguardando dados de entrada da rede.
opLatencies
opLatencies : { reads : <document>, writes : <document>, commands : <document>, transactions : <document> },
opLatenciesUm documento contendo latências de operação para a instância como um todo. Consulte Documento de latencyStats para uma descrição deste documento.
A partir do MongoDB 6.2, os relatórios de métricas
opLatenciespara instânciasmongodemongos. As latências reportadas pormongosincluem tempo de latência da operação e tempo de comunicação entre as instânciasmongodemongos.Para incluir o histograma na saída
opLatencies, execute o seguinte comando:db.runCommand( { serverStatus: 1, opLatencies: { histograms: true } } ).opLatencies
opWorkingTime
opWorkingTime : { commands : <document>, reads : <document>, writes : <document>, transactions : <document> }
opWorkingTimeDocumento que contém informações sobre a execução de operações para a instância. Consulte Documento de latencyStats para uma descrição deste documento.
Os campos em
opWorkingTimesão medidos emworkingMillis, que é o valor de tempo que o MongoDB gasta trabalhando nessa operação. Isso significa que fatores como a espera por bloqueios e o controle de fluxo não afetam oopWorkingTime.Para incluir o histograma na saída
opWorkingTime, execute o seguinte comando:db.runCommand( { serverStatus: 1, opWorkingTime: { histogram: true } } ).opWorkingTime Novidades na versão 8.0.
opWorkingTime.commandsDocumento que relata estatísticas de execução de comandos de banco de dados.
Novidades na versão 8.0.
opWorkingTime.readsDocumento que reporta estatísticas de execução para operações de leitura.
Novidades na versão 8.0.
opReadConcernCounters
Somente para instâncias mongod
opReadConcernCounters : { available : Long("<num>"), linearizable : Long("<num>"), local : Long("<num>"), majority : Long("<num>"), snapshot : Long("<num>"), none : Long("<num>") }
opReadConcernCountersRemovido na versão 5.0. Substituído por
readConcernCounters.Um documento que reporta no nível de read concern especificado pelas operações de query para a instância
mongoddesde sua última inicialização.EspecificadaswDescrição"available"Número de operações de query que especificaram o nível de read concern
"available"."linearizable"Número de operações de query que especificaram o nível de read concern
"linearizable"."local"Número de operações de query que especificaram o nível de read concern
"local"."majority"Número de operações de query que especificaram o nível de read concern
"majority"."snapshot"Número de operações de query que especificaram o nível de read concern
"snapshot"."none"Número de operações de query que não especificaram um nível de read concern e, em vez disso, usaram o nível de read concern padrão.
A soma de
opReadConcernCountersé igual aopcounters.query.
opWriteConcernCounters
Somente para instâncias mongod
opWriteConcernCounters : { insert : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... } }, implicitDefault : { wmajority : Long("<num>") wnum : { <num> : Long("<num>"), ... } } } }, update : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... } wtag : { <tag1> : Long("<num>"), ... } }, implicitDefault : { wmajority : Long("<num>") wnum : { <num> : Long("<num>"), ... } } } }, delete : { wmajority : Long("<num>") wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... } }, implicitDefault : { wmajority : Long("<num>") wnum : { <num> : Long("<num>"), ... } } } } }
opWriteConcernCountersUm documento que reporta sobre os write concerns especificados pelas operações de gravação na instância
mongoddesde sua última inicialização.Mais especificamente, o relatório
opWriteConcernCountersno w: <value> especificado pelas operações de gravação. A opção de sinalização de diário (j) e a opção de tempo limite (wtimeout) das preocupações de gravação não afetam a contagem. A contagem é incrementada mesmo que a operação expire.Observação
Somente disponível quando o parâmetro
reportOpWriteConcernCountersInServerStatusestiver configurado paratrue(falsepor padrão).
opWriteConcernCounters.insertUm documento que reporta o w: <value> especificado por operações de inserção para a instância
mongoddesde sua última inicialização:Observação
Somente disponível quando o parâmetro
reportOpWriteConcernCountersInServerStatusestiver configurado paratrue(falsepor padrão).insert : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : {}, wtag : {} }, implicitDefault : { wmajority : Long("<num>") wnum : {} } } }, EspecificadaswDescrição"wmajority"Número de operações de inserção que especificaram
w: "majority"."wnum"Número de operações de inserção que especificaram
w: <num>. As contagens são agrupadas pelo ''<num>'' específico."wtag"Número de operações de inserção que especificaram
w: <tag>. As contagens são agrupadas pelo<tag>específico."none"Número de operações de inserção que não especificaram o valor
w. Essas operações usam o valor padrãowde "maioria"."noneInfo"Número de operações de query sem transação que usam write concerns padrão. As métricas acompanham o uso de
cluster wide write concern(write concern padrão global) e o write concern padrão implícito.A soma dos valores em
opWriteConcernCounters.noneInfodeve ser igual ao valor deopWriteConcernCounters.none.A soma de
opWriteConcernCounters.inserté igual aopcounters.insert.
opWriteConcernCounters.updateUm documento que reporta o w: <value> especificado pelas operações de atualização para a instância
mongoddesde sua última inicialização:Observação
Somente disponível quando o parâmetro
reportOpWriteConcernCountersInServerStatusestiver configurado paratrue(falsepor padrão).update : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : {}, wtag : {} }, implicitDefault : { wmajority : Long("<num>") wnum : {} } } }, EspecificadaswDescrição"wmajority"Número de operações de atualização que especificaram
w: "majority"."wnum"Número de operações de atualização que especificaram
w: <num>. As contagens são agrupadas pelo<num>específico."wtag"Número de operações de atualização que especificaram
w: <tag>. As contagens são agrupadas pelo<tag>específico."none"Número de operações de atualização que não especificaram o valor
w. Essas operações usam o valor padrãowde1."noneInfo"Número de operações de query sem transação que usam write concerns padrão. As métricas acompanham o uso de
cluster wide write concern(write concern padrão global) e o write concern padrão implícito.A soma dos valores em
opWriteConcernCounters.noneInfodeve ser igual ao valor deopWriteConcernCounters.none.A soma de
opWriteConcernCounters.updateé igual aopcounters.update.
opWriteConcernCounters.deleteUm documento que reporta o w: <value> especificado pelas operações de exclusão para a instância
mongoddesde sua última inicialização:Observação
Somente disponível quando o parâmetro
reportOpWriteConcernCountersInServerStatusestiver configurado paratrue(falsepor padrão).delete : { wmajority : Long("<num>"), wnum : { <num> : Long("<num>"), ... }, wtag : { <tag1> : Long("<num>"), ... }, none : Long("<num>"), noneInfo : { CWWC : { wmajority : Long("<num>"), wnum : {}, wtag : {} }, implicitDefault : { wmajority : Long("<num>") wnum : {} } } } EspecificadaswDescrição"wmajority"Número de operações de exclusão que especificaram
w: "majority"."wnum"Número de operações de exclusão que especificaram
w: <num>. As contagens são agrupadas pelo<num>específico."wtag"Número de operações de exclusão que especificaram
w: <tag>. As contagens são agrupadas pelo<tag>específico."none"Número de operações de exclusão que não especificaram o valor
w. Essas operações usam o valor padrãowde1."noneInfo"Número de operações de query sem transação que usam write concerns padrão. As métricas acompanham o uso de
cluster wide write concern(write concern padrão global) e o write concern padrão implícito.A soma dos valores em
opWriteConcernCounters.noneInfodeve ser igual ao valor deopWriteConcernCounters.none.A soma de
opWriteConcernCounters.deleteé igual aopcounters.delete.
opcounters
opcounters : { insert : Long("<num>"), query : Long("<num>"), update : Long("<num>"), delete : Long("<num>"), getmore : Long("<num>"), command : Long("<num>"), },
opcountersUm documento que reporta as operações do banco de dados por tipo desde a última vez que a instância
mongodfoi iniciada.Esses números aumentarão com o tempo até a próxima reinicialização. Analise esses valores ao longo do tempo para acompanhar a utilização do banco de dados.
Observação
Os dados em
opcounterstratam as operações que afetam vários documentos, como operações de inserção em massa ou de várias atualizações, como uma única operação. Consultemetrics.documentpara acompanhamento mais detalhado das operações no nível do documento.Além disso, esses valores refletem as operações recebidas e aumentam mesmo quando as operações não são bem-sucedidas.
opcounters.insertO número total de operações de inserção recebidas desde a última vez que a instância
mongodfoi iniciada.
opcounters.queryO número total de queries recebidas desde a última vez que a instância
mongodfoi iniciada. A partir do MongoDB 7.1, as aggregations contam como operações de query e incrementam esse valor.
opcounters.updateO número total de operações de atualização recebidas desde a última vez que a instância
mongodfoi iniciada.
opcounters.deleteO número total de operações de exclusão desde a última vez que a instância
mongodfoi iniciada.
opcounters.getmoreO número total de operações
getMoredesde a última vez que a instânciamongodfoi iniciada. Esse contador pode ser alto mesmo se a contagem de query for baixa. Os nós secundários enviam operaçõesgetMorecomo parte do processo de replicação.
opcounters.commandO número total de comandos emitidos para o banco de dados desde a última vez que a instância
mongodfoi iniciada.opcounters.commandconta todos os comandos, exceto os seguintes:
opcounters.deprecatedopQueryconta o número de solicitações de opcodes que ficaram obsoletos no MongoDB 5.0, mas são temporariamente permitidos. Esta seção só aparece no resultadodb.serverStatus()quando um código de operação obsoleto tiver sido usado.O contador é reiniciado quando
mongodcomeça.deprecated: { opQuery: Long("<num>"), }
opcountersRepl
Os valores de opcountersRepl.* retornados são do tipo NumberLong.
opcountersRepl : { insert : Long("<num>"), query : Long("<num>"), update : Long("<num>"), delete : Long("<num>"), getmore : Long("<num>"), command : Long("<num>"), },
opcountersReplUm documento que reporta as operações de replicação do banco de dados por tipo desde a última vez que a instância
mongodfoi iniciada.Estes valores aparecem somente quando o host atual é um nó de um conjunto de réplicas.
Estes valores serão diferentes dos valores de
opcounterspor causa da forma pela qual o MongoDB serializa as operações durante a replicação. Consulte a página Replicação para obter mais informações sobre replicação.Estes números crescerão ao longo do tempo em resposta ao uso do banco de dados até a próxima reinicialização. Analise esses valores ao longo do tempo para acompanhar a utilização do banco de dados.
Os valores de opcountersRepl.* retornados são do tipo NumberLong.
opcountersRepl.insertO número total de operações de inserção replicadas desde a última vez que a instância
mongodfoi iniciada.Os valores de opcountersRepl.* retornados são do tipo NumberLong.
opcountersRepl.queryO número total de consultas replicadas desde a última vez que a instância
mongodfoi iniciada.Os valores de opcountersRepl.* retornados são do tipo NumberLong.
opcountersRepl.updateO número total de operações de atualização replicadas desde a última vez que a instância
mongodfoi iniciada.Os valores de opcountersRepl.* retornados são do tipo NumberLong.
opcountersRepl.deleteO número total de operações de exclusão replicadas desde a última vez que a instância
mongodfoi iniciada.Os valores de opcountersRepl.* retornados são do tipo NumberLong.
opcountersRepl.getmoreO número total de operações
getMoredesde a última vez que a instânciamongodfoi iniciada. Esse contador pode ser alto mesmo se a contagem de query for baixa. Os nós secundários enviam operaçõesgetMorecomo parte do processo de replicação.Os valores de opcountersRepl.* retornados são do tipo NumberLong.
opcountersRepl.commandO número total de comandos replicados emitidos para o banco de dados desde a última vez que a instância
mongodfoi iniciada.Os valores de opcountersRepl.* retornados são do tipo NumberLong.
oplogTruncation
oplogTruncation : { totalTimeProcessingMicros : Long("<num>"), processingMethod : <string>, oplogMinRetentionHours : <double> totalTimeTruncatingMicros : Long("<num>"), truncateCount : Long("<num>") },
oplogTruncationUm documento que reporta truncamentos de oplog .
O campo só aparece quando a instância atual é membro de um conjunto de réplicas e usa o Mecanismo de armazenamento WiredTiger ou o Mecanismo de armazenamento In-Memory para implantações autogerenciadas.
Disponível no mecanismo de armazenamento WiredTiger.
oplogTruncation.totalTimeProcessingMicrosO tempo total gasto, em microssegundos, para analisar ou amostrar o oplog para determinar os pontos de truncamento do oplog.
totalTimeProcessingMicrossó é significativo se a instânciamongodtiver sido iniciada em arquivos de dados existentes (ou seja, não é significativo para o In-Memory Storage Engine (para implantações autogerenciadas).Veja
oplogTruncation.processingMethodDisponível no mecanismo de armazenamento WiredTiger.
oplogTruncation.processingMethodO método utilizado na inicialização para determinar os pontos de truncamento do oplog. O valor pode ser
"sampling"ou"scanning".processingMethodsó é significativo se a instânciamongodtiver sido iniciada em arquivos de dados existentes (ou seja, não é significativo para o In-Memory Storage Engine (para implantações autogerenciadas).Disponível no mecanismo de armazenamento WiredTiger.
oplogTruncation.oplogMinRetentionHoursO período mínimo de retenção para o oplog em horas. Se o oplog tiver excedido o tamanho para oplog, o
mongodapenas trunca as entradas do oplog mais antigas do que o valor de retenção configurado.Somente visível se o
mongodfor um nó de um conjunto de réplicas e:O
mongodfoi iniciado com a opção de linha de comando--oplogMinRetentionHoursou a opção de arquivo de configuraçãostorage.oplogMinRetentionHours,ou
O período mínimo de retenção foi configurado após a inicialização usando
replSetResizeOplog.
oplogTruncation.totalTimeTruncatingMicrosO tempo cumulativo gasto, em microssegundos, realizando truncamentos de oplog.
Disponível no mecanismo de armazenamento WiredTiger.
oplogTruncation.truncateCountO número cumulativo de truncamentos de oplog.
Disponível no mecanismo de armazenamento WiredTiger.
planCache
Novidades na versão 7.0.
planCache : { totalQueryShapes : Long("<num>"), totalSizeEstimateBytes : Long("<num>"), classic : { hits : Long("<num>"), misses : Long("<num>"), replanned : Long("<num>"), skipped : Long("<num>") }, sbe : { hits : Long("<num>"), misses: Long("<num>"), replanned : Long("<num>"), skipped : Long("<num>") } }
planCache.totalQueryShapesNúmero aproximado de formas de consulta de cache do plano
Antes da versão 7.2, as informações sobre o número de formas de query de cache do plano eram armazenadas no campo
query.planCacheTotalQueryShapes.Novidade na versão 7.2.
planCache.totalSizeEstimateBytesTamanho total do cache do plano em bytes.
Antes da versão 7.2, as informações sobre o tamanho do cache do plano eram armazenadas no campo
query.planCacheTotalSizeEstimateBytes.Novidade na versão 7.2.
planCache.classic.hitsNúmero de planos de query clássicos do mecanismo de execução encontrados no cache de queries e reutilizados para evitar a fase de planejamento de query.
planCache.classic.missesNúmero de planos de query do mecanismo de execução clássica que não foram encontrados no cache de query e passaram pela fase de planejamento de query.
planCache.classic.replannedNúmero de planos de query do mecanismo de execução clássica que foram descartados e reotimizados.
Novidade na versão 8.0: (também disponível na 7.0.22)
planCache.classic.skippedNúmero de planos de query clássicos do mecanismo de execução que não foram encontrados no cache de query porque a query não é elegível para armazenamento em cache.
Novidades na versão 7.3.
planCache.sbe.hitsNúmero de planos de query do mecanismo de execução baseado em slots encontrados no cache de query e reutilizados para evitar a fase de planejamento de query.
planCache.sbe.missesNúmero de planos do mecanismo de execução baseado em slot que não foram encontrados no cache de query e passaram pela fase de planejamento de query.
profiler
profiler: { totalWrites: <integer>, activeWriters: <integer> }
profiler.totalWritesNúmero total de gravações em
profilecoleções em todos os bancos de dados.
queryStats
Novidade na versão 7.1.
queryStats: { numEvicted: Long("<num>"), numRateLimitedRequests: Long("<num>"), queryStatsStoreSizeEstimateBytes: Long("<num>"), numQueryStatsStoreWriteErrors: Long("<num>"), numHmacApplicationErrors: Long("<num>") },
queryStatsUm documento que contém métricas para o estágio de agregação
$queryStats.
queryStats.numEvictedNúmero de query que a collection virtual
$queryStatsevitou devido a restrições de espaço.
queryStats.numRateLimitedRequestsNúmero de vezes que as estatísticas de query não foram registradas para uma query devido à limitação de taxa.
queryStats.queryStatsStoreSizeEstimateBytesTamanho estimado atual dos objetos na collection virtual
$queryStats.
queryAnalyzers
Novidades na versão 7.0.
queryAnalyzers: { activeCollections: <integer>, totalCollections: <integer>, totalSampledReadsCount: <integer>, totalSampledWritesCount: <integer>, totalSampledReadsBytes: <integer>, totalSampledWritesBytes: <integer> }
queryAnalyzers.activeCollectionsNúmero de coleções que o analisador de query ativamente amostra.
queues
À medida que uma operação prossegue por seus estágios, ela pode entrar em uma fila se o número de operações simultâneas no estágio atual exceder um limite máximo. Isso evita a contenção excessiva de recursos e fornece observabilidade no estado do banco de dados.
Novidades na versão 8.0.
queues: { execution: { write: { out: Long("<num>"), available: Long("<num>"), totalTickets: Long("<num>"), exempt: { addedToQueue: Long("<num>"), removedFromQueue: Long("<num>"), queueLength: Long("<num>"), startedProcessing: Long("<num>"), processing: Long("<num>"), finishedProcessing: Long("<num>"), totalTimeProcessingMicros: Long("<num>"), canceled: Long("<num>"), newAdmissions: Long("<num>"), totalTimeQueuedMicros: Long("<num>") }, normalPriority: { addedToQueue: Long("<num>"), removedFromQueue: Long("<num>"), queueLength: Long("<num>"), startedProcessing: Long("<num>"), processing: Long("<num>"), finishedProcessing: Long("<num>"), totalTimeProcessingMicros: Long("<num>"), canceled: Long("<num>"), newAdmissions: Long("<num>"), totalTimeQueuedMicros: Long("<num>") } }, read: { out: Long("<num>"), available: Long("<num>"), totalTickets: Long("<num>"), exempt: { addedToQueue: Long("<num>"), removedFromQueue: Long("<num>"), queueLength: Long("<num>"), startedProcessing: Long("<num>"), processing: Long("<num>"), finishedProcessing: Long("<num>"), totalTimeProcessingMicros: Long("<num>"), canceled: Long("<num>"), newAdmissions: Long("<num>"), totalTimeQueuedMicros: Long("<num>") }, normalPriority: { addedToQueue: Long("<num>"), removedFromQueue: Long("<num>"), queueLength: Long("<num>"), startedProcessing: Long("<num>"), processing: Long("<num>"), finishedProcessing: Long("<num>"), totalTimeProcessingMicros: Long("<num>"), canceled: Long("<num>"), newAdmissions: Long("<num>"), totalTimeQueuedMicros: Long("<num>") } }, monitor: { timesDecreased: Long("<num>"), timesIncreased: Long("<num>"), totalAmountDecreased: Long("<num>"), totalAmountIncreased: Long("<num>"), resizeDurationMicros: Long("<num>") } }, ingress: { out: Long("<num>"), available: Long("<num>"), totalTickets: Long("<num>"), exempt: { addedToQueue: Long("<num>"), removedFromQueue: Long("<num>"), queueLength: Long("<num>"), startedProcessing: Long("<num>"), processing: Long("<num>"), finishedProcessing: Long("<num>"), totalTimeProcessingMicros: Long("<num>"), canceled: Long("<num>"), newAdmissions: Long("<num>"), totalTimeQueuedMicros: Long("<num>") }, normalPriority: { addedToQueue: Long("<num>"), removedFromQueue: Long("<num>"), queueLength: Long("<num>"), startedProcessing: Long("<num>"), processing: Long("<num>"), finishedProcessing: Long("<num>"), totalTimeProcessingMicros: Long("<num>"), canceled: Long("<num>"), newAdmissions: Long("<num>"), totalTimeQueuedMicros: Long("<num>") } }, ingressSessionEstablishment: { // Added in MongoDB 8.2 "addedToQueue": Long("<num>"), "removedFromQueue": Long("<num>"), "interruptedInQueue": Long("<num>") "rejectedAdmissions": Long("<num>"), "exemptedAdmissions": Long("<num>"), "successfulAdmissions": Long("<num>"), "attemptedAdmissions": Long("<num>"), "averageTimeQueuedMicros": Long("<num>"), "totalAvailableTokens": Long("<num>") } }
queues.executionNovidades na versão 8.0.
Um documento que retorna informações de monitoramento e fila para operações que aguardam agendamento para execução na camada de armazenamento (transações simultâneas).
Essas configurações são específicas do MongoDB. Para alterar as configurações das transações de leitura e gravação simultâneas (tickets de leitura e gravação), consulte
storageEngineConcurrentReadTransactionsestorageEngineConcurrentWriteTransactions.Importante
A partir da versão 7.0, O MongoDB usa um algoritmo padrão para ajustar dinamicamente o número máximo de transações simultâneas do mecanismo de armazenamento (incluindo tickets de leitura e gravação) para otimizar o rendimento do banco de dados durante a sobrecarga.
A tabela a seguir resume como identificar cenários de sobrecarga para o MongoDB pós-7.0 e para versões anteriores:
VersãoDiagnosticando cenários de sobrecarga7.0 e posterior
Um grande número de operações em fila que persistem por um período prolongado provavelmente indica uma sobrecarga.
A disponibilidade simultânea de uma transação do mecanismo de armazenamento (ticket) de 0 por um período prolongado de tempo não indica uma sobrecarga.
6.0 e anteriores
Um grande número de operações em fila que persistem por um período prolongado provavelmente indica uma sobrecarga.
Uma disponibilidade de transação de mecanismo de armazenamento simultâneo (ticket) de 0 por um período prolongado provavelmente indica uma sobrecarga.
queues.execution.writeUm documento que retorna Informações da fila para transações de gravação simultâneas (tickets de gravação) permitidas no mecanismo de armazenamento WiredTiger.
queues.execution.readUm documento que retorna Informações da fila para transações de leitura simultâneas (tickets de leitura) permitidas no mecanismo de armazenamento WiredTiger.
Um documento que retorna métricas de monitoramento para ajustes que o sistema fez ao número de transações simultâneas permitidas (tickets).
O número de vezes que o tamanho da fila foi reduzido.
O número de vezes que o tamanho da fila foi aumentado.
A quantidade total de operações pelas quais a fila diminuiu.
O número total de operações pelas quais a fila aumentou.
O tempo cumulativo em milissegundos que o sistema gastou redimensionando a fila.
queues.ingressNovidades na versão 8.0.
Um documento que retorna Informações da fila para controle de admissão de entrada. Use esses valores para proteger e mitigar a sobrecarga de recursos, limitando o número de operações que aguardam a entrada da rede no banco de dados.
queues.ingressSessionEstablishmentNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
Um documento que contém informações sobre a fila de estabelecimento de sessões de entrada. Isso inclui métricas relacionadas a conexões estabelecidas e processadas através do limitador de taxa de estabelecimento de conexão.
queues.ingressSessionEstablishment.addedToQueueNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número de conexões de entrada que o servidor adiciona à fila de estabelecimento de sessões de entrada. Esta métrica acompanha conexões que são processadas pela fila do limitador de taxa quando este está habilitado.
queues.ingressSessionEstablishment.removedFromQueueNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número de conexões de entrada que o servidor remove da fila de estabelecimento de sessões de entrada após adquirir um token de estabelecimento de conexão. Esta métrica acompanha conexões que concluíram sua espera na fila do limitador de taxa.
queues.ingressSessionEstablishment.interruptedInQueueNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número de conexões de entrada que ficam em espera na fila, geralmente devido a desconexões do cliente ou ao desligamento do servidor.
queues.ingressSessionEstablishment.rejectedAdmissionsNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número de tentativas de conexão de entrada que o servidor rejeita porque a profundidade da fila excedeu o limite de
ingressConnectionEstablishmentMaxQueueDepth. Quando isso ocorre, o servidor encerra imediatamente a conexão em vez de colocá‑la na fila.
queues.ingressSessionEstablishment.exemptedAdmissionsNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número de tentativas de conexão de entrada que ignoram o limitador de taxa por estarem na lista
ingressConnectionEstablishmentRateLimiterBypass. Conexões de endereços IP ou faixas CIDR especificadas emingressConnectionEstablishmentRateLimiterBypassnão estão sujeitas a limitação de taxa.
queues.ingressSessionEstablishment.successfulAdmissionsNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número total de tentativas de conexão de entrada que o limitador de taxa processa com sucesso, seja imediatamente ou após aguardar na fila.
queues.ingressSessionEstablishment.attemptedAdmissionsNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número total de tentativas de conexão de entrada no limitador de taxa.
queues.ingressSessionEstablishment.averageTimeQueuedMicrosNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O tempo médio (em microssegundos) que as conexões passam esperando na fila antes de serem processadas pelo servidor. Esta métrica utiliza uma fórmula de média móvel ponderada exponencialmente e pode ser usada para ajustar o
ingressConnectionEstablishmentMaxQueueDepth. O valor é aproximadamente igual a(maxQueueDepth / establishRatePerSec) * 1e6.
queues.ingressSessionEstablishment.totalAvailableTokensNovo na versão 8.2: (também disponível em 8.1.1, 8.0.12, e 7.0.23)
O número atual de tokens disponíveis no bucket de tokens. Isso representa a capacidade de processar novas conexões imediatamente, sem enfileiramento. Quando esse valor é
0, novas conexões devem aguardar na fila ou são rejeitadas se a fila estiver cheia.
Informações da fila
out: Long("<num>"), available: Long("<num>"), totalTickets: Long("<num>"), exempt: { addedToQueue: Long("<num>"), removedFromQueue: Long("<num>"), queueLength: Long("<num>"), startedProcessing: Long("<num>"), processing: Long("<num>"), finishedProcessing: Long("<num>"), totalTimeProcessingMicros: Long("<num>"), canceled: Long("<num>"), newAdmissions: Long("<num>"), totalTimeQueuedMicros: Long("<num>") }, normalPriority: { addedToQueue: Long("<num>"), removedFromQueue: Long("<num>"), queueLength: Long("<num>"), startedProcessing: Long("<num>"), processing: Long("<num>"), finishedProcessing: Long("<num>"), totalTimeProcessingMicros: Long("<num>"), canceled: Long("<num>"), newAdmissions: Long("<num>"), totalTimeQueuedMicros: Long("<num>") }
querySettings
Novidades na versão 8.0.
querySettings: { count: <num>, rejectCount: <num>, size: <num> }
querySettingsDocumento com contagens de configuração e uso para configurações de query.
A partir do MongoDB 8.0, use configurações de query em vez de adicionar filtros de índice. Os filtros de índice estão obsoletos a partir do MongoDB 8.0.
As configurações de query têm mais funcionalidades do que os filtros de índice. Além disso, os filtros de índice não são persistentes e você não pode criar facilmente filtros de índice para todos os nós de cluster. Para adicionar configurações de query e explorar exemplos, consulte
setQuerySettings.
readConcernCounters
Novidades na versão 5.0.
readConcernCounters : { nonTransactionOps : { none : Long("<num>"), noneInfo : { CWRC : { local : Long("<num>"), available : Long("<num>"), majority : Long("<num>") }, implicitDefault : { local : Long("<num>"), available : Long("<num>") } }, local : Long("<num>"), available : Long("<num>"), majority : Long("<num>"), snapshot : { withClusterTime : Long("<num>"), withoutClusterTime : Long("<num>") }, linearizable : Long("<num>") }, transactionOps : { none : Long("<num>"), noneInfo : { CWRC : { local : Long("<num>"), available : Long("<num>"), majority : Long("<num>") }, implicitDefault : { local : Long("<num>"), available : Long("<num>") } }, local : Long("<num>"), majority : Long("<num>"), snapshot : { withClusterTime : Long("<num>"), withoutClusterTime : Long("<num>") } } },
readConcernCountersDocumento que comunica o nível de preocupação de leitura especificado pelas operações de query. Este documento contém os documentos
readConcernCounters.nonTransactionOpsereadConcernCounters.transactionOps.
readConcernCounters.nonTransactionOpsDocumento que reporta o nível de read concern especificado por operações de query não transacionais executadas desde a última vez que o servidor de banco de dados foi iniciado.
readConcernCounters.nonTransactionOps.noneNúmero de operações de query sem transação que não especificaram um nível de read concern e, em vez disso, usaram:
o nível de read concern padrão, ou
a configuração de leitura padrão global, caso tenha sido definida pelo comando
setDefaultRWConcern.
readConcernCounters.nonTransactionOps.noneInfoO número de operações de query não transacionais que usam o read concern padrão global e um read concern padrão implícito.
A soma dos valores em
readConcernCounters.nonTransactionOps.noneInfodeve ser igual ao valor dereadConcernCounters.nonTransactionOps.none.
readConcernCounters.nonTransactionOps.localNúmero de operações de query não transacional que especificaram o nível de read concern do
"local".
readConcernCounters.nonTransactionOps.availableNúmero de operações de query não transacional que especificaram o nível de read concern do
"available".
readConcernCounters.nonTransactionOps.majorityNúmero de operações de query não transacional que especificaram o nível de read concern do
"majority".
readConcernCounters.nonTransactionOps.snapshotDocumento contendo operações de query sem transação que especificaram o nível de read concern do
"snapshot".
readConcernCounters.nonTransactionOps.snapshot.withClusterTimeNúmero de operações de query sem transação que especificaram o nível de read concern
"snapshot"e o tempo do cluster, que especificou um ponto no tempo.
readConcernCounters.nonTransactionOps.snapshot.withoutClusterTimeNúmero de operações de query sem transação que especificaram o nível de read concern do
"snapshot"sem o tempo do cluster, o que significa que um ponto no tempo foi omitido e o servidor lerá o snapshot confirmado mais recente disponível para o nó.
readConcernCounters.nonTransactionOps.linearizableNúmero de operações de query não transacional que especificaram o nível de read concern do
"linearizable".
readConcernCounters.transactionOpsDocumento que reporta o nível de read concern especificado pelas operações de query de transação realizadas desde a última vez que o servidor de banco de dados foi iniciado.
readConcernCounters.transactionOps.noneNúmero de operações de query de transação que não especificaram um nível de read concern e, em vez disso, usaram o nível de read concern padrão ou a configuração de read ou write concern padrão global adicionada com o comando
setDefaultRWConcern.
readConcernCounters.transactionOps.noneInfoInformações sobre o read concern padrão global e o read concern padrão implícito usados por operações de query de transação.
readConcernCounters.transactionOps.localNúmero de operações de query de transação que especificaram o nível de read concern
"local".
readConcernCounters.transactionOps.availableNúmero de operações de query de transação que especificaram o nível de read concern
"available".
readConcernCounters.transactionOps.majorityNúmero de operações de query de transação que especificaram o nível de read concern
"majority".
readConcernCounters.transactionOps.snapshotDocumento contendo operações de query de transação que especificaram o nível de read concern do
"snapshot".
readConcernCounters.transactionOps.snapshot.withClusterTimeNúmero de operações de query de transação que especificaram o nível de read concern
"snapshot"e o tempo de cluster, que especificou um ponto no tempo.
readConcernCounters.transactionOps.snapshot.withoutClusterTimeNúmero de operações de query de transação que especificaram o nível de read concern
"snapshot"sem o tempo do cluster, o que significa que um ponto no tempo foi omitido e o servidor lerá o snapshot confirmado mais recente disponível para o nó.
readPreferenceCounters
Disponível a partir do MongoDB 7.2 (e 7.0.3, 6.0.11).
Disponível apenas em mongod.
readPreferenceCounters : { executedOnPrimary : { primary : { internal : Long("<num>"), external : Long("<num>") }, primaryPreferred : { internal : Long("<num>"), external : Long("<num>") }, secondary : { internal : Long("<num>"), external : Long("<num>") }, secondaryPreferred : { internal : Long("<num>"), external : Long("<num>") }, nearest : { internal : Long("<num>"), external : Long("<num>") }, tagged : { internal : Long("<num>"), external : Long("<num>") } }, executedOnSecondary : { primary : { internal : Long("<num>"), external : Long("<num>") }, primaryPreferred : { internal : Long("<num>"), external : Long("<num>") }, secondary : { internal : Long("<num>"), external : Long("<num>") }, secondaryPreferred : { internal : Long("<num>"), external : Long("<num>") }, nearest : { internal : Long("<num>"), external : Long("<num>") }, tagged : { internal : Long("<num>"), external : Long("<num>") } } }
readPreferenceCountersDisponível apenas em mongod.
Documento que reporta o número de operações recebidas por este nó
mongodcom a preferência de leitura especificada.O subcampo
taggedrefere-se a qualquer preferência de leitura transmitida com uma marcação.
repl
repl : { hosts : [ <string>, <string>, <string> ], setName : <string>, setVersion : <num>, isWritablePrimary : <boolean>, secondary : <boolean>, primary : <hostname>, me : <hostname>, electionId : ObjectId(""), userWriteBlockReason : <num>, userWriteBlockModeCounters: { Unspecified: <num>, ClusterToClusterMigrationInProgress: <num>, DiskUseThresholdExceeded: <num> }, primaryOnlyServices: { ReshardingRecipientService: { state: <string>, numInstances: <num> }, RenameCollectionParticipantService: { state: <string>, numInstances: <num> }, ShardingDDLCoordinator: { state: <string>, numInstances: <num> }, ReshardingDonorService: { state: <string>, numInstances: <num> } }, rbid : <num>, replicationProgress : [ { rid : <ObjectId>, optime : { ts: <timestamp>, term: <num> }, host : <hostname>, memberId : <num> }, ... ] }
replDocumento que reporta a configuração do conjunto de réplicas.
replsó aparece quando o host atual é um conjunto de réplicas. Consulte a página Replicação para obter mais informações sobre replicação.
repl.hostsUm conjunto de informações de porta e nome de host dos nós do conjunto de réplicas atual (
"host:port").
repl.setNameUma string com o nome do conjunto de réplicas atual. Esse valor reflete o argumento da linha de comando
--replSetou o valorreplSetNameno arquivo de configuração.
repl.isWritablePrimaryUm booleano que indica se o nó atual é o primary do conjunto de réplicas.
repl.secondaryUm booleano que indica se o nó atual é um nó secundário do conjunto de réplicas.
repl.primaryAs informações de porta e nome do host (
"host:port") do atual nó primary do conjunto de réplicas.
repl.userWriteBlockReasonUm valor numérico que representa a razão pela qual as gravações do usuário estão bloqueadas. Este campo é relevante apenas quando você definir
userWriteBlockModecomo2para habilitar o bloqueio de gravação.Os valores possíveis são:
0: Não especificado1:ClusterToClusterMigrationInProgress2:DiskUseThresholdExceeded
Este campo corresponde ao parâmetro
reasonespecificado no comandosetUserWriteBlockModequando o bloqueio de gravação está ativado.
repl.userWriteBlockModeCountersUm documento que contém contadores que monitoram o número de vezes que o bloqueio de gravação é ativado por diferentes motivos desde que o servidor foi iniciado.
repl.userWriteBlockModeCounters.UnspecifiedO número de vezes que o bloqueio de gravação foi ativado com o motivo
Unspecifieddesde que o servidor foi iniciado.
repl.userWriteBlockModeCounters.ClusterToClusterMigrationInProgressO número de vezes que o bloqueio de gravação foi ativado com o motivo
ClusterToClusterMigrationInProgressdesde que o servidor foi iniciado.
repl.userWriteBlockModeCounters.DiskUseThresholdExceededO número de vezes que o bloqueio de gravação foi ativado com o motivo
DiskUseThresholdExceededdesde que o servidor foi iniciado.
repl.primaryOnlyServicesDocumento que contém o número e o status das instâncias de cada serviço primary ativo no servidor. Os serviços primary só podem ser iniciados quando um servidor é primary, mas podem continuar sendo executados até a conclusão depois que o servidor muda de estado.
Novidades na versão 5.0.
repl.primaryOnlyServices.ReshardingRecipientServiceDocumento que contém o estado e o número de instâncias do
ReshardingRecipientService.Os destinatários são os fragmentos que, como resultado da operação de refragmentação, seriam os proprietários dos partes, de acordo com a nova chave de fragmento e as zonas.
O coordenador de refragmentação instrui cada primary shard doador e destinatário a renomear a collection fragmentada temporária. A collection temporária torna-se a nova collection refragmentada.
Novidades na versão 5.0.
repl.primaryOnlyServices.RenameCollectionParticipantServiceDocumento que contém o estado e o número de instâncias do
RenameCollectionParticipantService.O
RenameCollectionParticipantServicegarante que, depois que um fragmento receber uma solicitação renameCollection, ele poderá retomar a renomeação local em caso de falha do sistema.Novidades na versão 5.0.
repl.primaryOnlyServices.ShardingDDLCoordinatorDocumento que contém o estado e o número de instâncias do
ShardingDDLCoordinator.O serviço do
ShardingDDLCoordinatorgerencia operações de DDL para bancos de dados primários como: criar banco de dados, descartar banco de dados, renameCollection.O
ShardingDDLCoordinatorgarante que uma operação DDL para cada banco de dados possa acontecer em qualquer momento específico em um cluster fragmentado.Novidades na versão 5.0.
repl.primaryOnlyServices.ReshardingDonorServiceDocumento que contém o estado e o número de instâncias do
ReshardingDonorService.Os doadores são os shards que possuem chunks da collection fragmentada antes da operação de renomeação ser concluída.
O coordenador de refragmentação instrui cada primary shard doador e destinatário a renomear a collection fragmentada temporária. A collection temporária torna-se a nova collection refragmentada.
Novidades na versão 5.0.
repl.rbidIdentificador de rollback. Usado para determinar se ocorreu um rollback para esta instância
mongod.
repl.replicationProgressUma array com um documento para cada nó do conjunto de réplicas que reporta o processo de replicação para esse nó. Normalmente, este é o primary ou secundário, se estiver usando replicação encadeada.
Para incluir essa saída, você deve passar a opção
replparaserverStatus, como no exemplo a seguir:db.serverStatus({ "repl": 1 }) db.runCommand({ "serverStatus": 1, "repl": 1 }) O conteúdo da seção
repl.replicationProgressdepende da origem da replicação de cada nó. Esta seção trata da operação interna e serve apenas para uso interno e diagnóstico.
repl.replicationProgress[n].ridUm ObjectId usado como ID para os nós do conjunto de réplicas. Somente para uso interno.
repl.replicationProgress[n].optimeInformações sobre a última operação do oplog que o nó aplicou, conforme reportado deste nó.
security
security : { authentication : { saslSupportedMechsReceived : <num>, mechanisms : { MONGODB-X509 : { speculativeAuthenticate : { received : Long("<num>"), successful : Long("<num>") }, authenticate : { received : Long("<num>"), successful : Long("<num>") } }, SCRAM-SHA-1 : { speculativeAuthenticate : { received : Long("<num>"), successful : Long("<num>") }, authenticate : { received : Long("<num>"), successful : Long("<num>") } }, SCRAM-SHA-256 : { speculativeAuthenticate : { received : Long("<num>"), successful : Long("<num>") }, authenticate : { received : Long("<num>"), successful : Long("<num>") } } } }, SSLServerSubjectName: <string>, SSLServerHasCertificateAuthority: <boolean>, SSLServerCertificateExpirationDate: <date> },
securityDocumento que reporta:
O número de vezes que um determinado mecanismo de autenticação foi usado para autenticar na instância
mongodoumongos.O certificado TLS/SSL da instância do
mongod/mongos. (Só aparece para instânciasmongodoumongoscom suporte para TLS)
security.authentication.saslSupportedMechsReceivedNovidades na versão 5.0.
O número de vezes que um pedido
helloinclui um campohello.saslSupportedMechsválido.
security.authentication.mechanismsDocumento que reporta o número de vezes que um determinado mecanismo de autenticação foi usado para autenticar na instância
mongodoumongos. Os valores no documento distinguem entre autenticação padrão e autenticação especulativa. [1]Observação
Os campos no documento
mechanismsdependem da configuração do parâmetroauthenticationMechanisms. O documentomechanismsinclui um campo para cada mecanismo de autenticação suportado por sua instânciamongodoumongos.O exemplo a seguir mostra a forma do documento do
mechanismspara uma implantação que permite somente autenticação X.509.
security.authentication.mechanisms.MONGODB-X509Um documento que relata o número de vezes que X.509 foi usado para autenticar na instância
mongodoumongos.Inclui o número total de tentativas de autenticação
X.509e o subconjunto dessas tentativas que foram especulativas. [1]
security.authentication.mechanisms.MONGODB-X509.speculativeAuthenticate.receivedNúmero de tentativas de autenticação especulativa recebidas usando X.509. Inclui tentativas de autenticação especulativa bem-sucedidas e fracassadas. [1]
security.authentication.mechanisms.MONGODB-X509.speculativeAuthenticate.successfulNúmero de tentativas de autenticação especulativa bem-sucedidas recebidas usando X.509. [1]
security.authentication.mechanisms.MONGODB-X509.authenticate.receivedNúmero de tentativas de autenticação bem-sucedidas e com falha recebidas usando X.509. Esse valor inclui tentativas de autenticação especulativa recebidas usando X.509.
security.authentication.mechanisms.MONGODB-X509.authenticate.successfulNúmero de tentativas de autenticação bem-sucedidas recebidas usando x.508. Esse valor inclui tentativas de autenticação especulativa bem-sucedidas que usaram X.509.
[1] (1, 2, 3, 4) A autenticação especulativa minimiza o número de idas e voltas da rede durante o processo de autenticação para otimizar o desempenho. security.SSLServerSubjectNameO nome do assunto associado ao certificado TLS/SSL da instância
mongod/mongos.
Fragmentação
{ configsvrConnectionString : 'csRS/cfg1.example.net:27019,cfg2.example.net:27019,cfg2.example.net:27019', lastSeenConfigServerOpTime : { ts : <timestamp>, t : Long("<num>") }, maxChunkSizeInBytes : Long("<num>") }
shardingDocumento com dados sobre o cluster fragmentado. O
lastSeenConfigServerOpTimeestá presente somente para ummongosou um nó do fragmento, não para um servidor de configuração.
sharding.lastSeenConfigServerOpTimeA última optime do CSRS primary que o
mongosou o nó do shard visualizou. O documento optime inclui:O
lastSeenConfigServerOpTimeestá presente somente se o cluster fragmentado usar CSRS.
sharding.maxChunkSizeInBytesO limite máximo de tamanho para uma faixa migrar. Se esse valor foi atualizado recentemente no servidor de configuração, o
maxChunkSizeInBytespoderá não refletir o valor mais recente.
shardingStatistics
Ao executar em um membro de um shard:
shardingStatistics : { countStaleConfigErrors : Long("<num>"), countDonorMoveChunkStarted : Long("<num>"), countDonorMoveChunkCommitted : Long("<num>"), countDonorMoveChunkAborted : Long("<num>"), totalDonorMoveChunkTimeMillis : Long("<num>"), totalDonorChunkCloneTimeMillis : Long("<num>"), totalCriticalSectionCommitTimeMillis : Long("<num>"), totalCriticalSectionTimeMillis : Long("<num>"), countDocsClonedOnRecipient : Long("<num>"), countBytesClonedOnRecipient : Long("<num>"), countDocsClonedOnCatchUpOnRecipient : Long("<num>"), countBytesClonedOnCatchUpOnRecipient : Long("<num>"), countDocsClonedOnDonor : Long("<num>"), countRecipientMoveChunkStarted : Long("<num>"), countDocsDeletedByRangeDeleter : Long("<num>"), countDonorMoveChunkLockTimeout : Long("<num>"), unfinishedMigrationFromPreviousPrimary : Long("<num>"), chunkMigrationConcurrency : Long("<num>"), countTransitionToDedicatedConfigServerStarted : Long("<num>"), // Added in MongoDB 8.0 countTransitionToDedicatedConfigServerCompleted : Long("<num>"), // Added in MongoDB 8.0 countTransitionFromDedicatedConfigServerCompleted : Long("<num>"), // Added in MongoDB 8.0 catalogCache : { numDatabaseEntries : Long("<num>"), numCollectionEntries : Long("<num>"), countStaleConfigErrors : Long("<num>"), totalRefreshWaitTimeMicros : Long("<num>"), numActiveIncrementalRefreshes : Long("<num>"), countIncrementalRefreshesStarted : Long("<num>"), numActiveFullRefreshes : Long("<num>"), countFullRefreshesStarted : Long("<num>"), countFailedRefreshes : Long("<num>") }, rangeDeleterTasks : <num>, configServerInShardCache : <boolean>, // Added in MongoDB 8.0 resharding : { countStarted : Long("1"), countSucceeded : Long("1"), countFailed : Long("0"), countCanceled : Long("0"), lastOpEndingChunkImbalance : Long("0"), active : { documentsCopied : Long("0"), bytesCopied : Long("0"), countWritesToStashCollections : Long("0"), countWritesDuringCriticalSection : Long("0"), countReadsDuringCriticalSection : Long("0"), oplogEntriesFetched : Long("0"), oplogEntriesApplied : Long("0"), insertsApplied : Long("0"), updatesApplied : Long("0"), deletesApplied : Long("0") }, oldestActive : { coordinatorAllShardsHighestRemainingOperationTimeEstimatedMillis : Long("0"), coordinatorAllShardsLowestRemainingOperationTimeEstimatedMillis : Long("0"), recipientRemainingOperationTimeEstimatedMillis : Long("0") }, latencies : { collectionCloningTotalRemoteBatchRetrievalTimeMillis : Long("0"), collectionCloningTotalRemoteBatchesRetrieved : Long("0"), collectionCloningTotalLocalInsertTimeMillis : Long("0"), collectionCloningTotalLocalInserts : Long("0"), oplogFetchingTotalRemoteBatchRetrievalTimeMillis : Long("0"), oplogFetchingTotalRemoteBatchesRetrieved : Long("0"), oplogFetchingTotalLocalInsertTimeMillis : Long("0"), oplogFetchingTotalLocalInserts : Long("0"), oplogApplyingTotalLocalBatchRetrievalTimeMillis : Long("0"), oplogApplyingTotalLocalBatchesRetrieved : Long("0"), oplogApplyingTotalLocalBatchApplyTimeMillis : Long("0"), oplogApplyingTotalLocalBatchesApplied : Long("0") }, currentInSteps : { countInstancesInCoordinatorState1Initializing : Long("0"), countInstancesInCoordinatorState2PreparingToDonate : Long("0"), countInstancesInCoordinatorState3Cloning : Long("0"), countInstancesInCoordinatorState4Applying : Long("0"), countInstancesInCoordinatorState5BlockingWrites : Long("0"), countInstancesInCoordinatorState6Aborting : Long("0"), countInstancesInCoordinatorState7Committing : Long("-1"), countInstancesInRecipientState1AwaitingFetchTimestamp : Long("0"), countInstancesInRecipientState2CreatingCollection : Long("0"), countInstancesInRecipientState3Cloning : Long("0"), countInstancesInRecipientState4Applying : Long("0"), countInstancesInRecipientState5Error : Long("0"), countInstancesInRecipientState6StrictConsistency : Long("0"), countInstancesInRecipientState7Done : Long("0"), countInstancesInDonorState1PreparingToDonate : Long("0"), countInstancesInDonorState2DonatingInitialData : Long("0"), countInstancesInDonorState3DonatingOplogEntries : Long("0"), countInstancesInDonorState4PreparingToBlockWrites : Long("0"), countInstancesInDonorState5Error : Long("0"), countInstancesInDonorState6BlockingWrites : Long("0"), countInstancesInDonorState7Done : Long("0") } } } },
Quando executado em um mongos:
shardingStatistics : { numHostsTargeted: { find : { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") }, insert: { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") }, update: { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") }, delete: { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") }, aggregate: { allShards: Long("<num>"), manyShards: Long("<num>"), oneShard: Long("<num>"), unsharded: Long("<num>") } } }, catalogCache : { numDatabaseEntries : Long("<num>"), numCollectionEntries : Long("<num>"), countStaleConfigErrors : Long("<num>"), totalRefreshWaitTimeMicros : Long("<num>"), numActiveIncrementalRefreshes : Long("<num>"), countIncrementalRefreshesStarted : Long("<num>"), numActiveFullRefreshes : Long("<num>"), countFullRefreshesStarted : Long("<num>"), countFailedRefreshes : Long("<num>") }, configServerInShardCache : <boolean> // Added in MongoDB 8.0 }
shardingStatisticsDocumento que contém métricas sobre atualização de metadados em clusters fragmentados.
shardingStatistics.countStaleConfigErrorsO número total de vezes que os threads atingem a exceção de configuração obsoleta. Como a exceção de configuração obsoleta aciona uma atualização dos metadados, esse número é aproximadamente proporcional ao número de atualizações de metadados.
Presente apenas quando executado em um shard.
shardingStatistics.countDonorMoveChunkStartedO número total de vezes que o MongoDB inicia o comando
moveChunkoumoveRangeno nó primary do shard como parte do procedimento de migração de intervalo. Esse número crescente não considera se as migrações de chunk são bem-sucedidas ou não.Presente apenas quando executado em um shard.
shardingStatistics.countDonorMoveChunkCommittedO número total de migrações de chunk que o MongoDB comete no nó primary do shard.
A migração de chunks é executada por comandos
moveChunkemoveRangeem um procedimento de migração de faixa.Disponível apenas em um shard.
Disponível a partir de MongoDB 7.1 (e 7.0, 6.3.2, 6.0.6 e 5.0.18).
shardingStatistics.countDonorMoveChunkAbortedO número total de migrações de chunk que MongoDB aborta no nó primary do shard.
A migração de chunks é executada por comandos
moveChunkemoveRangeem um procedimento de migração de faixa.Disponível apenas em um shard.
Disponível a partir de MongoDB 7.1 (e 7.0, 6.3.2, 6.0.6 e 5.0.18).
shardingStatistics.totalDonorMoveChunkTimeMillisTempo cumulativo em milissegundos para mover chunks do shard atual para outro shard. Para cada migração de chunk, o tempo começa quando um comando
moveRangeoumoveChunkinicia e termina quando o chunk é movido para outro shard em um procedimento de migração de faixa.Disponível apenas em um shard.
Disponível a partir de MongoDB 7.1 (e 7.0, 6.3.2, 6.0.6 e 5.0.18).
shardingStatistics.totalDonorChunkCloneTimeMillisO tempo cumulativo, em milissegundos, que a fase de clone do procedimento de migração de faixa assume o nó primary do shard. Especificamente, para cada migração neste shard, o tempo monitorado começa com os comandos
moveRangeemoveChunke termina antes que o shard de destino entre em uma fasecatchuppara aplicar alterações que ocorreram durante o procedimento de organização de faixa.Presente apenas quando executado em um shard.
shardingStatistics.totalCriticalSectionCommitTimeMillisO tempo cumulativo, em milissegundos, que a fase de atualização de metadados do procedimento de migração de faixa assume no nó primary do shard. Durante a fase de atualização de metadados, o MongoDB bloqueia todas as operações na collection.
Presente apenas quando executado em um shard.
shardingStatistics.totalCriticalSectionTimeMillisO tempo cumulativo, em milissegundos, que a fase de captura e a fase de atualização de metadados do procedimento de migração de faixa assume o nó primary do shard.
Para calcular a duração da fase de captura, subtraia
totalCriticalSectionCommitTimeMillisdetotalCriticalSectionTimeMillis:totalCriticalSectionTimeMillis - totalCriticalSectionCommitTimeMillis Presente apenas quando executado em um shard.
shardingStatistics.countDocsClonedOnRecipientA contagem cumulativa, sempre crescente de documentos que o MongoDB clona no nó primary do shard do destinatário.
Presente apenas quando executado em um shard.
shardingStatistics.countBytesClonedOnRecipientO número cumulativo de bytes que o MongoDB clona no nó primary do shard do destinatário durante o procedimento de migração de faixa.
Para detalhes sobre sincronização de dados, consulte Sincronização de dados do conjunto de réplicas.
Disponível apenas em um shard.
Disponível a partir de MongoDB 7.1 (e 7.0, 6.3.2, 6.0.6 e 5.0.18).
shardingStatistics.countDocsClonedOnCatchUpOnRecipientO número cumulativo de documentos que o MongoDB clona no nó primary do shard destinatário durante a fase de captura do procedimento de migração de faixa.
Para detalhes sobre sincronização de dados, consulte Sincronização de dados do conjunto de réplicas.
Disponível apenas em um shard.
Disponível a partir de MongoDB 7.1 (e 7.0, 6.3.2, 6.0.6 e 5.0.18).
shardingStatistics.countBytesClonedOnCatchUpOnRecipientO número cumulativo de bytes que o MongoDB clona no nó primary do shard destinatário durante a fase de captura do procedimento de migração de faixa.
Para detalhes sobre sincronização de dados, consulte Sincronização de dados do conjunto de réplicas.
Disponível apenas em um shard.
Disponível a partir de MongoDB 7.1 (e 7.0, 6.3.2, 6.0.6 e 5.0.18).
shardingStatistics.countDocsClonedOnDonorA contagem cumulativa e sempre crescente de documentos que o MongoDB clona no nó primary do shard do doador.
Presente apenas quando executado em um shard.
shardingStatistics.countRecipientMoveChunkStartedContagem cumulativa e sempre crescente de partes que esse nó, atuando como o primary do shard do destinatário, começou a receber (quer a movimentação tenha sido bem-sucedida ou não).
Presente apenas quando executado em um shard.
shardingStatistics.countDocsDeletedByRangeDeleterA contagem cumulativa e sempre crescente de documentos que o MongoDB exclui no nó primary do shard do doador durante a migração de chunks.
Presente apenas quando executado em um shard.
Alterado na versão 7.1.
shardingStatistics.countDonorMoveChunkLockTimeoutA contagem cumulativa e sempre crescente de migrações de chunk que o MongoDB cancela no nó primary do shard do doador devido ao tempo limite de aquisição.
Presente apenas quando executado em um shard.
shardingStatistics.unfinishedMigrationFromPreviousPrimaryO número de migrações não concluídas deixadas pelo primary anterior após uma eleição. Esse valor só é atualizado depois que o
mongodrecém-eleito conclui a transição para o primary.Presente apenas quando executado em um shard.
shardingStatistics.chunkMigrationConcurrencyO número de threads no shard de origem e o shard de recebimento para executar operações de migração de chunks .
Presente apenas quando executado em um shard.
Disponível a partir do MongoDB 6.3 (e 5.0.15).
shardingStatistics.catalogCacheDocumento com estatísticas sobre o cache de informações de roteamento do cluster.
shardingStatistics.catalogCache.numDatabaseEntriesO número total de entradas de banco de dados que estão atualmente no cache do catálogo.
shardingStatistics.catalogCache.numCollectionEntriesO número total de entradas de collection (em todos os bancos de dados) que estão atualmente no cache do catálogo.
shardingStatistics.catalogCache.countStaleConfigErrorsO número total de vezes que os threads atingem a exceção de configuração obsoleta. Uma exceção de configuração obsoleta aciona uma atualização dos metadados.
shardingStatistics.catalogCache.totalRefreshWaitTimeMicrosO tempo cumulativo, em microssegundos, que os threads tiveram que esperar por uma atualização dos metadados.
shardingStatistics.catalogCache.numActiveIncrementalRefreshesO número de atualizações de cache de catálogo incremental que estão atualmente esperando para serem concluídas.
shardingStatistics.countIncrementalRefreshesStartedO número cumulativo de atualizações incrementais que começaram.
shardingStatistics.catalogCache.numActiveFullRefreshesO número de atualizações completas do cache do catálogo que estão aguardando para serem concluídas no momento.
shardingStatistics.catalogCache.countFullRefreshesStartedO número cumulativo de atualizações completas que começaram.
shardingStatistics.catalogCache.countFailedRefreshesO número cumulativo de atualizações completas ou incrementais que falharam.
shardingStatistics.countTransitionToDedicatedConfigServerStartedNúmero de vezes que o comando
transitionToDedicatedConfigServerfoi iniciado.Presente apenas quando executado em um nó do servidor de configuração.
Novidades na versão 8.0.
shardingStatistics.countTransitionToDedicatedConfigServerCompletedNúmero de vezes que o comando
transitionToDedicatedConfigServerfoi concluído.Presente apenas quando executado em um nó do servidor de configuração.
Novidades na versão 8.0.
shardingStatistics.countTransitionFromDedicatedConfigServerCompletedNúmero de vezes que o comando
transitionFromDedicatedConfigServerfoi concluído.Presente apenas quando executado em um nó do servidor de configuração.
Novidades na versão 8.0.
shardingStatistics.rangeDeleterTasksO total atual das tarefas de exclusão de intervalo de chunks em fila que estão prontas para serem executadas ou estão sendo executadas como parte do procedimento de migração de faixa.
Inspecione os documentos na collection
config.rangeDeletionspara obter informações sobre as faixas de chunk pendentes de exclusão de um shard após uma migração de chunk.Presente somente quando executado em um nó do shard.
shardingStatistics.configServerInShardCacheUm booleano que indica se o servidor de configuração é um fragmento de configuração. Esse valor é atualizado periodicamente, portanto, o valor de
configServerInShardCachepode ficar obsoleto por até aproximadamente um minuto em um cluster íntegro. Se o nó não conseguir se conectar com o servidor de configuração,configServerInShardCachepoderá permanecer obsoleto por um período mais longo.
shardingStatistics.reshardingDocumento com estatísticas sobre operações de refragmentação.
Cada shard retorna suas próprias estatísticas de operação de refragmentação. Se um shard não estiver envolvido em uma operação de refragmentação, esse shard não conterá estatísticas sobre a operação de refragmentação.
Presente apenas quando executado em um shard ou servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.countStartedA soma de
countSucceeded,countFailedecountCanceled. A soma é ainda incrementada em1se uma operação de refragmentação tiver sido iniciada, mas ainda não tiver sido concluída. A soma é definida como 0 quandomongodé iniciado ou reiniciado.Presente apenas quando executado em um shard ou servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.countSucceededNúmero de operações de refragmentação bem-sucedidas. O número é configurado para 0 quando
mongodé iniciado ou reiniciado.Presente apenas quando executado em um shard ou servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.countFailedNúmero de operações de refragmentação falhadas. O número é configurado para 0 quando
mongodé iniciado ou reiniciado.Presente apenas quando executado em um shard ou servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.countCanceledNúmero de operações de refragmentação canceladas. O número é configurado para 0 quando
mongodé iniciado ou reiniciado.Presente apenas quando executado em um shard ou servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.active.documentsCopiedNúmero de documentos copiados de shards de doadores para shards de destinatários para a operação de refragmentação atual. O número é definido como 0 quando uma nova operação de refragmentação é iniciada.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Novidades na versão 5.0.
Atualizado na versão 6.1
shardingStatistics.resharding.active.bytesCopiedNúmero de bytes copiados dos shards do doador para os shards do destinatário para a operação de refragmentação atual. O número é definido como 0 quando uma nova operação de refragmentação é iniciada.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Novidades na versão 5.0.
Atualizado na versão 6.1
shardingStatistics.resharding.active.countWritesToStashCollectionsDurante a refragmentação, o número de gravações nas coleções de estoque do destinatário.
Novidades na versão 6.1.
shardingStatistics.resharding.active.countWritesDuringCriticalSectionNúmero de gravações realizadas na seção crítica para a operação de refragmentação atual. A seção crítica evita novas gravações recebidas na collection sendo refragmentada. O número é definido como 0 quando uma nova operação de refragmentação é iniciada.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Novidades na versão 5.0.
Atualizado na versão 6.1
shardingStatistics.resharding.active.countReadsDuringCriticalSectionDurante a refragmentação, o número de leituras tentadas durante a seção crítica do doador.
Novidades na versão 6.1.
shardingStatistics.resharding.active.oplogEntriesFetchedNúmero de entradas obtidas do oplog para a operação de refragmentação atual. O número é definido como 0 quando uma nova operação de refragmentação é iniciada.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Atualizado na versão 6.1
shardingStatistics.resharding.active.oplogEntriesAppliedNúmero de entradas aplicadas ao oplog para a operação de refragmentação atual. O número é definido como 0 quando uma nova operação de refragmentação é iniciada.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Novidades na versão 5.0.
Atualizado na versão 6.1
shardingStatistics.resharding.active.insertsAppliedO número total de operações de inserção aplicadas durante a refragmentação.
Novidades na versão 6.1.
shardingStatistics.resharding.active.updatesAppliedO número total de operações de atualização aplicadas durante a refragmentação.
Novidades na versão 6.1.
shardingStatistics.resharding.active.deletesAppliedO número total de operações de exclusão aplicadas durante a refragmentação.
Novidades na versão 6.1.
shardingStatistics.resharding.oldestActive.coordinatorAllShardsHighestRemainingOperationTimeEstimatedMillisCalculado em todos os shards, a estimativa mais alta do número de segundos restantes. Se a estimativa de tempo não puder ser calculada, o valor será definido como -1.
Novidades na versão 6.1.
shardingStatistics.resharding.oldestActive.coordinatorAllShardsLowestRemainingOperationTimeEstimatedMillisCalculado em todos os shards, a estimativa mais baixa do número de segundos restantes. Se a estimativa de tempo não puder ser calculada, o valor será definido como -1.
Novidades na versão 6.1.
shardingStatistics.resharding.oldestActive.recipientRemainingOperationTimeEstimatedMillisTempo restante estimado, em milissegundos, para a operação de refragmentação atual. Antes da refragmentação, ou quando a hora não pode ser calculada, o valor é definido como -1.
Se um shard estiver envolvido em várias operações de refragmentação, esse campo conterá a estimativa de tempo restante para a operação de refragmentação mais antiga em que esse shard é um destinatário.
Novidades na versão 6.1.
shardingStatistics.resharding.oldestActive.totalOperationTimeElapsedMillisTempo total decorrido, em milissegundos, para a operação de refragmentação atual. O tempo é definido como 0 quando uma nova operação de refragmentação é iniciada.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.latenciesMétricas de tempo para operações de refragmentação.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.collectionCloningTotalRemoteBatchRetrievalTimeMillisTempo total gasto pelos destinatários recuperando lotes de documentos de doadores, em milissegundos.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.collectionCloningTotalRemoteBatchesRetrievedNúmero total de lotes de destinatários de documentos recuperados dos doadores.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.collectionCloningTotalLocalInsertTimeMillisTempo total que os destinatários gastaram inserindo lotes de documentos de doadores, em milissegundos.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.collectionCloningTotalLocalInsertsNúmero total de lotes de documentos de doadores que os destinatários inseriram.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.oplogFetchingTotalRemoteBatchRetrievalTimeMillisTempo total que os destinatários gastaram recuperando lotes de entradas oplog de doadores, em milissegundos.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.oplogFetchingTotalRemoteBatchesRetrievedNúmero total de lotes de destinatários de entradas oplog recuperados dos doadores.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.oplogFetchingTotalLocalInsertTimeMillisTempo total que os destinatários gastaram inserindo lotes de entradas oplog de doadores, em milissegundos.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.oplogFetchingTotalLocalInsertsNúmero total de lotes de entradas de oplog de doadores que os destinatários inseriram.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.oplogApplyingTotalLocalBatchRetrievalTimeMillisTempo total que os destinatários gastaram recuperando lotes de entradas de oplog que foram inseridas durante a busca, em milissegundos.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.oplogApplyingTotalLocalBatchesRetrievedNúmero total de lotes de entradas de oplog que foram inseridas durante a busca dos destinatários recuperados.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.oplogApplyingTotalLocalBatchApplyTimeMillisTempo total que os destinatários gastaram aplicando lotes de entradas de oplog, em milissegundos.
Novidades na versão 6.1.
shardingStatistics.resharding.latencies.oplogApplyingTotalLocalBatchesAppliedNúmero total de lotes de entradas de oplog que os destinatários aplicaram.
Novidades na versão 6.1.
shardingStatistics.resharding.totalApplyTimeElapsedMillisTempo total decorrido, em milissegundos, para a etapa de aplicação da operação de refragmentação atual. Na etapa de aplicação, os shards do destinatário modificam seus dados com base nas novas gravações recebidas dos shards do doador. O tempo é definido como 0 quando uma nova operação de refragmentação é iniciada.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.totalCriticalSectionTimeElapsedMillisTempo total decorrido, em milissegundos, para a seção crítica da operação de refragmentação atual. A seção crítica evita novas gravações recebidas na collection sendo refragmentada. O tempo é definido como 0 quando uma nova operação de refragmentação é iniciada.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.donorStateEstado do shard do doador para a operação de refragmentação atual. O número é definido como 0 quando uma nova operação de refragmentação é iniciada.
Número retornadoSignificadoDescrição0
unusedO shard não é um doador na operação de refragmentação atual.
1
preparing-to-donateO shard do doador está se preparando para doar dados para os shards do destinatário.
2
donating-initial-dataO shard do doador está doando dados para os shards do destinatário.
3
donating-oplog-entriesO shard do doador está doando entradas do oplog para os shards do destinatário.
4
preparing-to-block-writesO shard do doador está prestes a impedir a entrada de novas operações de gravação na collection que está sendo refragmentada.
5
errorOcorreu um erro durante a operação de refragmentação.
6
blocking-writesO shard do doador está evitando novas operações de escrita recebidas e o shard do doador notificou todos os shards do destinatário de que novas gravações recebidas são evitadas.
7
doneO shard do doador descartou a collection fragmentada antiga e a operação de refragmentação foi concluída.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.recipientStateEstado do shard do destinatário para a operação de refragmentação atual. O número é definido como 0 quando uma nova operação de refragmentação é iniciada.
Número retornadoSignificadoDescrição0
unusedO shard não é um destinatário na operação de refragmentação atual.
1
awaiting-fetch-timestampO shard do destinatário está esperando que os shards do doador estejam preparados para doar os dados
2
creating-collectionO shard do destinatário está criando a nova collection fragmentada.
3
cloningO shard do destinatário está recebendo dados dos shards do doador.
4
applyingO shard do destinatário está aplicando entradas do oplog para modificar sua cópia dos dados com base nas novas gravações recebidas dos shards do doador.
5
errorOcorreu um erro durante a operação de refragmentação.
6
strict-consistencyO shard do destinatário tem todas as alterações de dados armazenadas em uma collection temporária.
7
doneA operação de refragmentação foi concluída.
Presente apenas quando executado em um shard ou servidor de configuração. Retorna 0 em um servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.numHostsTargetedIndica o número de shards direcionados para
CRUDoperações e comandos de aggregation. Quando uma operaçãoCRUDou comando de aggregation é executado, as seguintes métricas serão incrementadas.NomeDescriçãoallShardsUm comando teve como alvo todos os shards
manyShardsUm comando direcionado a mais de um shard
oneShardUm comando destinado a um shard
unshardedUm comando foi executado em uma collection não fragmentada
Observação
A execução do comando
serverStatusemmongosfornecerá informações sobre o CRUD e as operações de agregação que são executadas em um cluster fragmentado.As operações de vários fragmentos podem ser de dispersão ou específicas do fragmento. As operações de dispersão em vários fragmentos podem consumir mais recursos. Ao usar as métricas
shardingStatistics.numHostsTargeted, você pode ajustar as queries de agregação que são executadas em um cluster fragmentado.
shardingStatistics.resharding.coordinatorStateEstado do coordenador de refragmentação para a operação de refragmentação atual. O coordenador de refragmentação é um thread que é executado no servidor de configuração principal. O número é definido como 0 quando uma nova operação de refragmentação é iniciada.
Número retornadoSignificadoDescrição0
unusedO shard não é o coordenador na operação de refragmentação atual.
1
initializingO coordenador de refragmentação inseriu o documento do coordenador no
config.reshardingOperationse adicionou oreshardingFieldsà entradaconfig.collectionspara a collection original.2
preparing-to-donateO coordenador de refragmentação
criou uma entrada
config.collectionspara a collection de refragmentação temporária.inseriu entradas em
config.chunkspara faixas baseadas na nova chave de shard.inseriu entradas em
config.tagspara quaisquer zonas associadas à nova chave de shard.
O coordenador informa aos shards participantes para que iniciem a operação de refragmentação. O coordenador então aguarda até que todos os shards doadores tenham escolhido um
minFetchTimestampe estejam prontos para doar.3
cloningO coordenador de refragmentação informa os shards do doador para doar dados aos shards do destinatário. O coordenador espera que todos os destinatários terminem de clonar os dados do doador.
4
applyingO coordenador de refragmentação informa aos shards do destinatário que modifiquem suas cópias dos dados com base nas novas gravações recebidas dos shards do doador. O coordenador espera que todos os destinatários terminem de aplicar as entradas do oplog.
5
blocking-writesO coordenador de refragmentação informa os shards doadores para impedir novas operações de gravação de entrada na collection que está sendo redistribuída. O coordenador então espera que todos os destinatários tenham todas as alterações de dados.
6
abortingOcorreu um erro irrecuperável durante a operação de refragmentação ou o comando
abortReshardCollection(ou o métodosh.abortReshardCollection()) foi executado.6
committingO coordenador de refragmentação remove a entrada
config.collectionspara a collection de refragmentação temporária. O coordenador então adiciona orecipientFieldsà entrada da collection de origem.Presente apenas quando executado em um shard ou servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.opStatusStatus da operação de refragmentação atual.
Número retornadoDescrição-1
A operação de refragmentação não está em andamento.
0
Operação de refragmentação bem-sucedida.
1
Falha na operação de refragmentação.
2
Operação de refragmentação cancelada.
Presente apenas quando executado em um shard ou servidor de configuração.
Novidades na versão 5.0.
shardingStatistics.resharding.lastOpEndingChunkImbalanceEste campo contém a diferença numérica mais alta para (
maxNumChunksInShard - minNumChunksInShard) entre todas as zonas da collection que foi processada pela operação de refragmentaçãomais recente.Consulte Tamanho da faixa.
Atualizado apenas em servidores de configuração.
Novidades na versão 5.0.
shardedIndexConsistency
shardedIndexConsistency : { numShardedCollectionsWithInconsistentIndexes : Long("<num>") },
shardedIndexConsistencyDisponível apenas em instâncias do servidor de configuração.
Documento que retorna resultados de verificações de consistência do índice para collections fragmentadas.
As métricas retornadas são significativas somente quando executadas no primário do conjunto de réplicas do servidor de configuração para um cluster fragmentado.
Dica
enableShardedIndexConsistencyCheckparametershardedIndexConsistencyCheckIntervalMSparameter
shardedIndexConsistency.numShardedCollectionsWithInconsistentIndexesDisponível apenas em instâncias do servidor de configuração.
Número de collections fragmentadas cujos índices são inconsistentes nos shards. Uma collection fragmentada terá um índice inconsistente se a collection não tiver exatamente os mesmos índices (inclusive as opções de índice) em cada shard que contiver chunks para a collection.
Para investigar se uma collection fragmentada tem índices inconsistentes, consulte Encontrar índices inconsistentes em todos os shards.
As métricas retornadas são significativas somente quando executadas no primário do conjunto de réplicas do servidor de configuração para um cluster fragmentado.
Dica
enableShardedIndexConsistencyCheckparametershardedIndexConsistencyCheckIntervalMSparameter
storageEngine
storageEngine : { name : <string>, supportsCommittedReads : <boolean>, persistent : <boolean> },
storageEngine.supportsCommittedReadsUm booleano que indica se o mecanismo de armazenamento permite
"majority"read concern.
storageEngine.persistentUm booleano que indica se o mecanismo de armazenamento persiste ou não dados para o disco.
tcmalloc
Observação
tcmalloc métricas que são apenas para uso interno são omitidas desta página.
tcmalloc : { usingPerCPUCaches : <boolean>, // Added in MongoDB 8.0 maxPerCPUCacheSizeBytes : <integer>, // Added in MongoDB 8.0 generic : { current_allocated_bytes : <integer>, heap_size : <integer>, peak_memory_usage : <integer> // Added in MongoDB 8.0 }, tcmalloc : { central_cache_free : <integer>, cpu_free : <integer>, // Added in MongoDB 8.0 release_rate : <integer>, total_bytes_held : <integer>, // Added in MongoDB 8.0 cpuCache : { 0 : { overflows : <integer>, // Added in MongoDB 8.0 underflows : <integer> // Added in MongoDB 8.0 }, } }, tcmalloc_derived : { total_free_bytes : <integer> // Added in MongoDB 8.0 } }
tcmallocObservação
A partir da versão 8.0, o MongoDB usa uma versão atualizada do TCMalloc que melhora a fragmentação e o gerenciamento da memória. Consulte a atualização do tcmalloc para obter mais informações.
Um documento que contém informações sobre a alocação de memória para o servidor. Por padrão, as métricas
tcmallocsão incluídas na saídaserverStatus. Para alterar a verbosidade da seçãotcmalloc, especifique um número inteiro entre0e3(inclusive):Se você definir a verbosidade como
0, as métricastcmallocnão serão incluídas na saídaserverStatus.Se você definir a verbosidade como
1, a saídaserverStatusincluirá as métricastcmallocpadrão.Se você definir o detalhamento como
2, a saídaserverStatusincluirá métricas detcmallocpadrão e a seçãotcmalloc.tcmalloc.cpuCache.Se você definir a verbosidade como
3, a saídaserverStatusincluirá todas as métricastcmalloc.
Se você especificar um valor maior que
3, o MongoDB definirá overbositycomo3.Por exemplo, para chamar
serverStatuscomverbositydefinido como2, execute o seguinte comando:db.runCommand( { serverStatus: 1, tcmalloc: 2 } ) Dica
tcmalloc.usingPerCPUCachesUm booleano que indica se o TCMalloc está sendo executado com caches por CPU. Se
tcmalloc.usingPerCPUCachesforfalse, certifique-se de que:Você desabilitou o glibc rseq.
Você está usando o kernel Linux versão 4.18 ou posterior.
Novidades na versão 8.0.
tcmalloc.maxPerCPUCacheSizeBytesTamanho máximo, em bytes, de cada cache da CPU.
Novidades na versão 8.0.
tcmalloc.generic.peak_memory_usageQuantidade total de memória, em bytes, alocada pelo MongoDB e amostrada pelo TCMalloc.
Novidades na versão 8.0.
tcmalloc.generic.current_allocated_bytesnúmero total de bytes que estão atualmente alocados para a memória e usados ativamente pelo MongoDB.
tcmalloc.generic.heap_sizeQuantidade de memória, em bytes, alocada do sistema operacional. Esse valor inclui a memória que está em uso no momento e a memória que foi alocada, mas não está em uso.
tcmalloc.tcmalloc.central_cache_freeQuantidade de memória, em bytes, mantida na lista livre central. A lista livre central é uma estrutura que gerencia a memória livre para reutilização.
tcmalloc.tcmalloc.cpu_freeQuantidade de memória livre, em bytes, disponível em todos os caches da CPU.
Novidades na versão 8.0.
tcmalloc.tcmalloc.total_bytes_heldquantidade de memória, em bytes, atualmente mantida em caches.
Novidades na versão 8.0.
tcmalloc.tcmalloc.release_rateTaxa, em bytes por segundo, na qual a memória não utilizada é liberada para o sistema operacional. O parâmetro
tcmallocReleaseRatedetermina o valor detcmalloc.tcmalloc.release_rate.
tcmalloc.tcmalloc.cpuCacheUm documento que fornece dados sobre cada cache da CPU.
cpuCacheAs métricas são excluídas no nível de verbosidade padrão. Para visualizar as métricascpuCache, você deve definir a verbosidadetcmalloccomo pelo menos2.Novidades na versão 8.0.
tcmalloc.tcmalloc.cpuCache.N.overflowsNúmero de transbordamentos que o cache da CPU sofreu. Transbordamentos ocorrem quando um usuário desaloca memória e o cache está cheio.
Novidades na versão 8.0.
transações
transactions : { retriedCommandsCount : Long("<num>"), retriedStatementsCount : Long("<num>"), transactionsCollectionWriteCount : Long("<num>"), currentActive : Long("<num>"), currentInactive : Long("<num>"), currentOpen : Long("<num>"), totalAborted : Long("<num>"), totalCommitted : Long("<num>"), totalStarted : Long("<num>"), totalPrepared : Long("<num>"), totalPreparedThenCommitted : Long("<num>"), totalPreparedThenAborted : Long("<num>"), currentPrepared : Long("<num>"), lastCommittedTransaction : <document> },
transactions : { currentOpen : Long("<num>"), currentActive : Long("<num>"), currentInactive : Long("<num>"), totalStarted : Long("<num>"), totalCommitted : Long("<num>"), totalAborted : Long("<num>"), abortCause : { <String1> : Long("<num>"), <String2> : Long("<num>"), ... }, totalContactedParticipants : Long("<num>"), totalParticipantsAtCommit : Long("<num>"), totalRequestsTargeted : Long("<num>"), commitTypes : { noShards : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, singleShard : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, singleWriteShard : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, readOnly : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, twoPhaseCommit : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") }, recoverWithToken : { initiated : Long("<num>"), successful : Long("<num>"), successfulDurationMicros : Long("<num>") } } },
transactionsQuando executado em um
mongod, um documento com dados sobre as transações e retryable writes .Ao executar em um
mongos, um documento com dados sobre as transações executadas na instância.
transactions.retriedCommandsCountDisponível apenas em mongod.
O número total de novas tentativas que foram recebidas depois que o comando de gravação com possibilidade de nova tentativa correspondente já foi confirmado. Ou seja, uma tentativa de gravação repetitiva é tentada mesmo que a gravação tenha sido bem-sucedida anteriormente e tenha um registro associado para a transação e a sessão na collection
config.transactions, como quando a resposta de gravação inicial para o cliente é perdida.Observação
O MongoDB não reexecuta as gravações comprometidas.
O total está em todas as sessões.
O total não inclui retryable writes que possam acontecer internamente como parte de uma migração de chunk.
transactions.retriedStatementsCountDisponível apenas em mongod.
O número total de instruções de gravação associadas aos comandos repetidos em
transactions.retriedCommandsCount.Observação
O MongoDB não reexecuta as gravações comprometidas.
O total não inclui retryable writes que possam acontecer internamente como parte de uma migração de chunk.
transactions.transactionsCollectionWriteCountDisponível apenas em mongod.
O número total de gravações na collection
config.transactions, acionado quando uma nova instrução de gravação que pode ser repetida é confirmada.Para comandos de atualização e exclusão, como somente as operações de documento único podem ser tentadas novamente, há uma gravação por declaração.
Para operações de inserção, há uma gravação por lote de documentos inseridos, exceto quando uma falha leva a que cada documento seja inserido separadamente.
O total inclui gravações na collection
config.transactionsde um servidor que ocorrem como parte de uma migração.
transactions.currentActiveDisponível no mongod e no mongos.
O número total de transações abertas que atualmente executam um comando.
transactions.currentInactiveDisponível no mongod e no mongos.
O número total de transações abertas que atualmente não executam um comando.
transactions.currentOpenDisponível no mongod e no mongos.
O número total de transações abertas. Uma transação é aberta quando o primeiro comando é executado como parte dessa transação e permanece aberta até que a transação seja confirmada ou abortada.
transactions.totalAbortedPara o
mongod, o número total de transações abortadas nesta instância desde sua última inicialização.Para
mongos, o número total de transações abortadas por essa instância desde sua última inicialização.
transactions.totalCommittedPara o
mongod, o número total de transações com commit na instância desde a última inicialização.Para
mongos, o número total de transações com commit por essa instância desde sua última inicialização.
transactions.totalStartedPor
mongod, o número total de transações iniciadas nessa instância desde sua última inicialização.Por
mongos, o número total de transações iniciadas nessa instância desde sua última inicialização.
transactions.abortCauseDisponível apenas no mongos.
Distribuição do
transactions.totalAbortedpor causa. Se um cliente emitir umabortTransactionexplícito, a causa será listada comoabort.Por exemplo:
totalAborted : Long("5"), abortCause : { abort : Long("1"), DuplicateKey : Long("1"), StaleConfig : Long("3"), SnapshotTooOld : Long("1") },
transactions.totalContactedParticipantsDisponível apenas no mongos.
O número total de shards contatados para todas as transações iniciadas por este
mongosdesde sua última inicialização.O número de shards contatados durante os processos de transação pode incluir shards que podem não ser incluídos como parte do commit.
transactions.totalParticipantsAtCommitDisponível apenas no mongos.
Número total de shards envolvidos no commit de todas as transações iniciadas por este
mongosdesde a última inicialização.
transactions.totalRequestsTargetedDisponível apenas no mongos.
Número total de solicitações de rede direcionadas por
mongoscomo parte de suas transações.
transactions.commitTypesDisponível apenas no mongos.
Detalhamento dos commits por tipos. Por exemplo:
noShards : { initiated : Long("0"), successful : Long("0"), successfulDurationMicros : Long("0") }, singleShard : { initiated : Long("5"), successful : Long("5"), successfulDurationMicros : Long("203118") }, singleWriteShard : { initiated : Long("0"), successful : Long("0"), successfulDurationMicros : Long("0") }, readOnly : { initiated : Long("0"), successful : Long("0"), successfulDurationMicros : Long("0") }, twoPhaseCommit : { initiated : Long("1"), successful : Long("1"), successfulDurationMicros : Long("179616") }, recoverWithToken : { initiated : Long("0"), successful : Long("0"), successfulDurationMicros : Long("0") } Os tipos de commit são:
TipoDescriçãonoShardsCommits de transações que não contataram nenhum shard.
singleShardCommits de transações que afetaram um único shard.
singleWriteShardCommits de transações que contataram vários shards, mas cujas operações de gravação afetaram um único shard.
readOnlyCommits de transações que envolvem apenas operações de leitura.
twoPhaseCommitCommits de transações que incluíram gravações em vários shards
recoverWithTokenCommits que recuperaram o resultado de transações de outra instância ou depois que essa instância foi reiniciada.
Para cada tipo de commit, o comando retorna as seguintes métricas:
MétricasDescriçãoinitiatedNúmero total de vezes que commits desse tipo foram iniciados.
successfulNúmero total de vezes que commits desse tipo foram bem-sucedidos.
successfulDurationMicrosTempo total, em microssegundos, gasto por commits bem-sucedidos desse tipo.
transactions.totalPreparedDisponível apenas em mongod.
O número total de transações em estado preparado neste servidor desde a última inicialização do processo
mongod.
transactions.totalPreparedThenCommittedDisponível apenas em mongod.
O número total de transações que foram preparadas e confirmadas neste servidor desde a última inicialização do processo
mongod.
transactions.totalPreparedThenAbortedDisponível apenas em mongod.
O número total de transações que foram preparadas e abortadas neste servidor desde a última inicialização do processo
mongod.
transactions.currentPreparedDisponível apenas em mongod.
O número atual de transações no estado preparado neste servidor.
transactions.lastCommittedTransactionDisponível apenas em mongod.
Os detalhes da última transação com commit quando o
mongodé primary.Quando retornado de um secundário,
lastCommittedTransactionretorna os detalhes da última transação enviada quando esse secundário era um primário.lastCommittedTransaction : { operationCount : Long("1"), oplogOperationBytes : Long("211"), writeConcern : { w : "majority", wtimeout : 0 } } MétricasDescriçãooperationCountO número de operações de gravação na transação.
oplogOperationBytesO tamanho da entrada ou entradas correspondentes do oplog para a transação. [2]
writeConcernO write concern usado para a transação.
| [2] | O MongoDB cria quantas entradas de oplog forem necessárias para encapsular todas as operações de gravação em uma transação. Consulte Limite de tamanho do oplog para obter detalhes. |
transportSecurity
transportSecurity : { 1.0 : Long("<num>"), 1.1 : Long("<num>"), 1.2 : Long("<num>"), 1.3 : Long("<num>"), unknown : Long("<num>") },
watchdog
watchdog : { checkGeneration : Long("<num>"), monitorGeneration : Long("<num>"), monitorPeriod : <num> }
Observação
A seção watchdog só estará presente se o Storage Node Watchdog estiver habilitado.
watchdogDocumento que reporta o status do Storage Node Watchdog.
watchdog.checkGenerationO número de vezes que os diretórios foram verificados desde a inicialização. Os diretórios são verificados várias vezes a cada
monitoringPeriod.
watchdog.monitorGenerationO número de vezes que o status de todos os sistemas de arquivos usados pelo
mongodfoi examinado. Incrementado uma vez a cadamonitoringPeriod.
watchdog.monitorPeriodO valor definido por
watchdogPeriodSeconds. Esse é o período entre as verificações de status.
wiredTiger
wiredTiger As informações só aparecem se estiver usando o mecanismo de armazenamento WiredTiger. Algumas das estatísticas chegam para o servidor.
{ uri : 'statistics:', async : { current work queue length : <num>, maximum work queue length : <num>, number of allocation state races : <num>, number of flush calls : <num>, number of operation slots viewed for allocation : <num>, number of times operation allocation failed : <num>, number of times worker found no work : <num>, total allocations : <num>, total compact calls : <num>, total insert calls : <num>, total remove calls : <num>, total search calls : <num>, total update calls : <num> }, block-manager : { blocks pre-loaded : <num>, blocks read : <num>, blocks written : <num>, bytes read : <num>, bytes written : <num>, bytes written for checkpoint : <num>, mapped blocks read : <num>, mapped bytes read : <num> }, cache : { application threads page read from disk to cache count : <num>, application threads page read from disk to cache time (usecs) : <num>, application threads page write from cache to disk count : <num>, application threads page write from cache to disk time (usecs) : <num>, bytes belonging to page images in the cache : <num>, bytes belonging to the cache overflow table in the cache : <num>, bytes currently in the cache : <num>, bytes dirty in the cache cumulative : <num>, bytes not belonging to page images in the cache : <num>, bytes read into cache : <num>, bytes written from cache : <num>, cache overflow cursor application thread wait time (usecs) : <num>, cache overflow cursor internal thread wait time (usecs) : <num>, cache overflow score : <num>, cache overflow table entries : <num>, cache overflow table insert calls : <num>, cache overflow table max on-disk size : <num>, cache overflow table on-disk size : <num>, cache overflow table remove calls : <num>, checkpoint blocked page eviction : <num>, eviction calls to get a page : <num>, eviction calls to get a page found queue empty : <num>, eviction calls to get a page found queue empty after locking : <num>, eviction currently operating in aggressive mode : <num>, eviction empty score : <num>, eviction passes of a file : <num>, eviction server candidate queue empty when topping up : <num>, eviction server candidate queue not empty when topping up : <num>, eviction server evicting pages : <num>, eviction server slept, because we did not make progress with eviction : <num>, eviction server unable to reach eviction goal : <num>, eviction server waiting for a leaf page : <num>, eviction server waiting for an internal page sleep (usec) : <num>, eviction server waiting for an internal page yields : <num>, eviction state : <num>, eviction walk target pages histogram - 0-9 : <num>, eviction walk target pages histogram - 10-31 : <num>, eviction walk target pages histogram - 128 and higher : <num>, eviction walk target pages histogram - 32-63 : <num>, eviction walk target pages histogram - 64-128 : <num>, eviction walks abandoned : <num>, eviction walks gave up because they restarted their walk twice : <num>, eviction walks gave up because they saw too many pages and found no candidates : <num>, eviction walks gave up because they saw too many pages and found too few candidates : <num>, eviction walks reached end of tree : <num>, eviction walks started from root of tree : <num>, eviction walks started from saved location in tree : <num>, eviction worker thread active : <num>, eviction worker thread created : <num>, eviction worker thread evicting pages : <num>, eviction worker thread removed : <num>, eviction worker thread stable number : <num>, files with active eviction walks : <num>, files with new eviction walks started : <num>, force re-tuning of eviction workers once in a while : <num>, forced eviction - pages evicted that were clean count : <num>, forced eviction - pages evicted that were clean time (usecs) : <num>, forced eviction - pages evicted that were dirty count : <num>, forced eviction - pages evicted that were dirty time (usecs) : <num>, forced eviction - pages selected because of too many deleted items count : <num>, forced eviction - pages selected count : <num>, forced eviction - pages selected unable to be evicted count : <num>, forced eviction - pages selected unable to be evicted time : <num>, hazard pointer blocked page eviction : <num>, hazard pointer check calls : <num>, hazard pointer check entries walked : <num>, hazard pointer maximum array length : <num>, in-memory page passed criteria to be split : <num>, in-memory page splits : <num>, internal pages evicted : <num>, internal pages split during eviction : <num>, leaf pages split during eviction : <num>, maximum bytes configured : <num>, maximum page size at eviction : <num>, modified pages evicted : <num>, modified pages evicted by application threads : <num>, operations timed out waiting for space in cache : <num>, overflow pages read into cache : <num>, page split during eviction deepened the tree : <num>, page written requiring cache overflow records : <num>, pages currently held in the cache : <num>, pages evicted by application threads : <num>, pages queued for eviction : <num>, pages queued for eviction post lru sorting : <num>, pages queued for urgent eviction : <num>, pages queued for urgent eviction during walk : <num>, pages read into cache : <num>, pages read into cache after truncate : <num>, pages read into cache after truncate in prepare state : <num>, pages read into cache requiring cache overflow entries : <num>, pages read into cache requiring cache overflow for checkpoint : <num>, pages read into cache skipping older cache overflow entries : <num>, pages read into cache with skipped cache overflow entries needed later : <num>, pages read into cache with skipped cache overflow entries needed later by checkpoint : <num>, pages requested from the cache : <num>, pages seen by eviction walk : <num>, pages selected for eviction unable to be evicted : <num>, pages walked for eviction : <num>, pages written from cache : <num>, pages written requiring in-memory restoration : <num>, percentage overhead : <num>, tracked bytes belonging to internal pages in the cache : <num>, tracked bytes belonging to leaf pages in the cache : <num>, tracked dirty bytes in the cache : <num>, tracked dirty pages in the cache : <num>, unmodified pages evicted : <num> }, capacity : { background fsync file handles considered : <num>, background fsync file handles synced : <num>, background fsync time (msecs) : <num>, bytes read : <num>, bytes written for checkpoint : <num>, bytes written for eviction : <num>, bytes written for log : <num>, bytes written total : <num>, threshold to call fsync : <num>, time waiting due to total capacity (usecs) : <num>, time waiting during checkpoint (usecs) : <num>, time waiting during eviction (usecs) : <num>, time waiting during logging (usecs) : <num>, time waiting during read (usecs) : <num> }, connection : { auto adjusting condition resets : <num>, auto adjusting condition wait calls : <num>, detected system time went backwards : <num>, files currently open : <num>, memory allocations : <num>, memory frees : <num>, memory re-allocations : <num>, pthread mutex condition wait calls : <num>, pthread mutex shared lock read-lock calls : <num>, pthread mutex shared lock write-lock calls : <num>, total fsync I/Os : <num>, total read I/Os : <num>, total write I/Os : <num> }, cursor : { cached cursor count : <num>, cursor bulk loaded cursor insert calls : <num>, cursor close calls that result in cache : <num>, cursor create calls : <num>, cursor insert calls : <num>, cursor insert key and value bytes : <num>, cursor modify calls : <num>, cursor modify key and value bytes affected : <num>, cursor modify value bytes modified : <num>, cursor next calls : <num>, cursor operation restarted : <num>, cursor prev calls : <num>, cursor remove calls : <num>, cursor remove key bytes removed : <num>, cursor reserve calls : <num>, cursor reset calls : <num>, cursor search calls : <num>, cursor search near calls : <num>, cursor sweep buckets : <num>, cursor sweep cursors closed : <num>, cursor sweep cursors examined : <num>, cursor sweeps : <num>, cursor truncate calls : <num>, cursor update calls : <num>, cursor update key and value bytes : <num>, cursor update value size change : <num>, cursors reused from cache : <num>, open cursor count : <num> }, data-handle : { connection data handle size : <num>, connection data handles currently active : <num>, connection sweep candidate became referenced : <num>, connection sweep dhandles closed : <num>, connection sweep dhandles removed from hash list : <num>, connection sweep time-of-death sets : <num>, connection sweeps : <num>, session dhandles swept : <num>, session sweep attempts : <num> }, lock : { checkpoint lock acquisitions : <num>, checkpoint lock application thread wait time (usecs) : <num>, checkpoint lock internal thread wait time (usecs) : <num>, dhandle lock application thread time waiting (usecs) : <num>, dhandle lock internal thread time waiting (usecs) : <num>, dhandle read lock acquisitions : <num>, dhandle write lock acquisitions : <num>, durable timestamp queue lock application thread time waiting (usecs) : <num>, durable timestamp queue lock internal thread time waiting (usecs) : <num>, durable timestamp queue read lock acquisitions : <num>, durable timestamp queue write lock acquisitions : <num>, metadata lock acquisitions : <num>, metadata lock application thread wait time (usecs) : <num>, metadata lock internal thread wait time (usecs) : <num>, read timestamp queue lock application thread time waiting (usecs) : <num>, read timestamp queue lock internal thread time waiting (usecs) : <num>, read timestamp queue read lock acquisitions : <num>, read timestamp queue write lock acquisitions : <num>, schema lock acquisitions : <num>, schema lock application thread wait time (usecs) : <num>, schema lock internal thread wait time (usecs) : <num>, table lock application thread time waiting for the table lock (usecs) : <num>, table lock internal thread time waiting for the table lock (usecs) : <num>, table read lock acquisitions : <num>, table write lock acquisitions : <num>, txn global lock application thread time waiting (usecs) : <num>, txn global lock internal thread time waiting (usecs) : <num>, txn global read lock acquisitions : <num>, txn global write lock acquisitions : <num> }, log : { busy returns attempting to switch slots : <num>, force archive time sleeping (usecs) : <num>, log bytes of payload data : <num>, log bytes written : <num>, log files manually zero-filled : <num>, log flush operations : <num>, log force write operations : <num>, log force write operations skipped : <num>, log records compressed : <num>, log records not compressed : <num>, log records too small to compress : <num>, log release advances write LSN : <num>, log scan operations : <num>, log scan records requiring two reads : <num>, log server thread advances write LSN : <num>, log server thread write LSN walk skipped : <num>, log sync operations : <num>, log sync time duration (usecs) : <num>, log sync_dir operations : <num>, log sync_dir time duration (usecs) : <num>, log write operations : <num>, logging bytes consolidated : <num>, maximum log file size : <num>, number of pre-allocated log files to create : <num>, pre-allocated log files not ready and missed : <num>, pre-allocated log files prepared : <num>, pre-allocated log files used : <num>, records processed by log scan : <num>, slot close lost race : <num>, slot close unbuffered waits : <num>, slot closures : <num>, slot join atomic update races : <num>, slot join calls atomic updates raced : <num>, slot join calls did not yield : <num>, slot join calls found active slot closed : <num>, slot join calls slept : <num>, slot join calls yielded : <num>, slot join found active slot closed : <num>, slot joins yield time (usecs) : <num>, slot transitions unable to find free slot : <num>, slot unbuffered writes : <num>, total in-memory size of compressed records : <num>, total log buffer size : <num>, total size of compressed records : <num>, written slots coalesced : <num>, yields waiting for previous log file close : <num> }, perf : { file system read latency histogram (bucket 1) - 10-49ms : <num>, file system read latency histogram (bucket 2) - 50-99ms : <num>, file system read latency histogram (bucket 3) - 100-249ms : <num>, file system read latency histogram (bucket 4) - 250-499ms : <num>, file system read latency histogram (bucket 5) - 500-999ms : <num>, file system read latency histogram (bucket 6) - 1000ms+ : <num>, file system write latency histogram (bucket 1) - 10-49ms : <num>, file system write latency histogram (bucket 2) - 50-99ms : <num>, file system write latency histogram (bucket 3) - 100-249ms : <num>, file system write latency histogram (bucket 4) - 250-499ms : <num>, file system write latency histogram (bucket 5) - 500-999ms : <num>, file system write latency histogram (bucket 6) - 1000ms+ : <num>, operation read latency histogram (bucket 1) - 100-249us : <num>, operation read latency histogram (bucket 2) - 250-499us : <num>, operation read latency histogram (bucket 3) - 500-999us : <num>, operation read latency histogram (bucket 4) - 1000-9999us : <num>, operation read latency histogram (bucket 5) - 10000us+ : <num>, operation write latency histogram (bucket 1) - 100-249us : <num>, operation write latency histogram (bucket 2) - 250-499us : <num>, operation write latency histogram (bucket 3) - 500-999us : <num>, operation write latency histogram (bucket 4) - 1000-9999us : <num>, operation write latency histogram (bucket 5) - 10000us+ : <num> }, reconciliation : { fast-path pages deleted : <num>, page reconciliation calls : <num>, page reconciliation calls for eviction : <num>, pages deleted : <num>, split bytes currently awaiting free : <num>, split objects currently awaiting free : <num> }, session : { open session count : <num>, session query timestamp calls : <num>, table alter failed calls : <num>, table alter successful calls : <num>, table alter unchanged and skipped : <num>, table compact failed calls : <num>, table compact successful calls : <num>, table create failed calls : <num>, table create successful calls : <num>, table drop failed calls : <num>, table drop successful calls : <num>, table import failed calls : <num>, table import successful calls : <num>, table rebalance failed calls : <num>, table rebalance successful calls : <num>, table rename failed calls : <num>, table rename successful calls : <num>, table salvage failed calls : <num>, table salvage successful calls : <num>, table truncate failed calls : <num>, table truncate successful calls : <num>, table verify failed calls : <num>, table verify successful calls : <num> }, thread-state : { active filesystem fsync calls : <num>, active filesystem read calls : <num>, active filesystem write calls : <num> }, thread-yield : { application thread time evicting (usecs) : <num>, application thread time waiting for cache (usecs) : <num>, connection close blocked waiting for transaction state stabilization : <num>, connection close yielded for lsm manager shutdown : <num>, data handle lock yielded : <num>, get reference for page index and slot time sleeping (usecs) : <num>, log server sync yielded for log write : <num>, page access yielded due to prepare state change : <num>, page acquire busy blocked : <num>, page acquire eviction blocked : <num>, page acquire locked blocked : <num>, page acquire read blocked : <num>, page acquire time sleeping (usecs) : <num>, page delete rollback time sleeping for state change (usecs) : <num>, page reconciliation yielded due to child modification : <num> }, transaction : { Number of prepared updates : <num>, Number of prepared updates added to cache overflow : <num>, Number of prepared updates resolved : <num>, durable timestamp queue entries walked : <num>, durable timestamp queue insert to empty : <num>, durable timestamp queue inserts to head : <num>, durable timestamp queue inserts total : <num>, durable timestamp queue length : <num>, number of named snapshots created : <num>, number of named snapshots dropped : <num>, prepared transactions : <num>, prepared transactions committed : <num>, prepared transactions currently active : <num>, prepared transactions rolled back : <num>, query timestamp calls : <num>, read timestamp queue entries walked : <num>, read timestamp queue insert to empty : <num>, read timestamp queue inserts to head : <num>, read timestamp queue inserts total : <num>, read timestamp queue length : <num>, rollback to stable calls : <num>, rollback to stable updates aborted : <num>, rollback to stable updates removed from cache overflow : <num>, set timestamp calls : <num>, set timestamp durable calls : <num>, set timestamp durable updates : <num>, set timestamp oldest calls : <num>, set timestamp oldest updates : <num>, set timestamp stable calls : <num>, set timestamp stable updates : <num>, transaction begins : <num>, transaction checkpoint currently running : <num>, transaction checkpoint generation : <num>, transaction checkpoint max time (msecs) : <num>, transaction checkpoint min time (msecs) : <num>, transaction checkpoint most recent time (msecs) : <num>, transaction checkpoint scrub dirty target : <num>, transaction checkpoint scrub time (msecs) : <num>, transaction checkpoint total time (msecs) : <num>, transaction checkpoints : <num>, transaction checkpoints skipped because database was clean : <num>, transaction failures due to cache overflow : <num>, transaction fsync calls for checkpoint after allocating the transaction ID : <num>, transaction fsync duration for checkpoint after allocating the transaction ID (usecs) : <num>, transaction range of IDs currently pinned : <num>, transaction range of IDs currently pinned by a checkpoint : <num>, transaction range of IDs currently pinned by named snapshots : <num>, transaction range of timestamps currently pinned : <num>, transaction range of timestamps pinned by a checkpoint : <num>, transaction range of timestamps pinned by the oldest active read timestamp : <num>, transaction range of timestamps pinned by the oldest timestamp : <num>, transaction read timestamp of the oldest active reader : <num>, transaction sync calls : <num>, transactions committed : <num>, transactions rolled back : <num>, update conflicts : <num> }, concurrentTransactions : { write : { out : <num>, available : <num>, totalTickets : <num> }, read : { out : <num>, available : <num>, totalTickets : <num> }, monitor : { timesDecreased: <num>, timesIncreased: <num>, totalAmountDecreased: <num>, totalAmountIncreased: <num> } }, snapshot-window-settings : { total number of SnapshotTooOld errors : <num>, max target available snapshots window size in seconds : <num>, target available snapshots window size in seconds : <num>, current available snapshots window size in seconds : <num>, latest majority snapshot timestamp available : <string>, oldest majority snapshot timestamp available : <string> } }
Observação
A lista a seguir não é definitiva.
wiredTiger.asyncDocumento que retorna estatísticas relacionadas à API de operações assíncronas. Não é usado pelo MongoDB.
wiredTiger.block-managerDocumento que retorna estatísticas sobre as operações do gerenciador de chunks.
wiredTiger.cacheDocumento que retorna estatísticas sobre o cache e remoções de página do cache.
Veja a seguir uma descrição de algumas das estatísticas da chave
wiredTiger.cache:wiredTiger.cache.bytes currently in the cacheTamanho em bytes dos dados atualmente em cache. Esse valor não deve ser maior que o valor de
maximum bytes configured.
wiredTiger.cache.tracked dirty bytes in the cacheTamanho em bytes dos dados sujos no cache. Esse valor deve ser menor que o valor de
bytes currently in the cache.
wiredTiger.cache.pages read into cacheNúmero de páginas lidas no cache.
wiredTiger.cache.pages read into cachecomwiredTiger.cache.pages written from cachepode fornecer uma visão geral da atividade de E/S.
wiredTiger.cache.pages written from cacheNúmero de páginas gravadas no cache.
wiredTiger.cache.pages written from cachecomwiredTiger.cache.pages read into cachepode fornecer uma visão geral da atividade de E/S.
Para ajustar o tamanho do cache interno do WiredTiger, consulte
--wiredTigerCacheSizeGBestorage.wiredTiger.engineConfig.cacheSizeGB. Evite aumentar o tamanho do cache interno do WiredTiger acima do valor padrão. Se o seu caso de uso exigir um tamanho maior do cache interno, consulte--wiredTigerCacheSizePctestorage.wiredTiger.engineConfig.cacheSizePct.
wiredTiger.data-handleDocumento que retorna estatísticas sobre identificadores e varreduras de dados.
wiredTiger.logDocumento que retorna estatísticas sobre o registro de gravação adiantado do WiredTiger (ou seja, o diário).
wiredTiger.sessionDocumento que retorna a contagem de cursor aberto e a contagem de sessão aberta para a sessão.
wiredTiger.thread-yieldDocumento que retorna estatísticas sobre os rendimentos durante as aquisições de páginas.