Join us at MongoDB.local London on 7 May to unlock new possibilities for your data. Use WEB50 to save 50%.
Register now >
Docs Menu
Docs Home
/ /

Solucionar problemas de conexión de los nodos privados

Esta página describe los problemas habituales de conexión a nodos privados y sus posibles soluciones.

1

Para ver el estado de cada punto final privado:

  1. En Atlas, ve a Database & Network Access página para tu proyecto.

    1. Si aún no aparece, se debe seleccionar la organización que contiene el proyecto en el menú Organizations de la barra de navegación.

    2. Si aún no se muestra, seleccione su proyecto en el menú Projects de la barra de navegación.

    3. En la barra lateral, haz clic en Database & Network Access en la sección Security.

      La Se muestra la página Base de datos y acceso a la red.

  2. Haz clic en la pestaña Private Endpoint.

  3. Revisar los estados.

    Los campos Atlas Endpoint Service Status y Endpoint Status muestran el estado de cada nodo privado.

Consulta los siguientes estados para ayudarte a determinar el estado de tus conexiones de nodos privados:

Atlas Endpoint Service Status

Estado
Descripción

Crear vínculo privado

Atlas está creando el balanceador de carga de red y Recursosde VPC.

Fallido

Se ha producido un fallo del sistema.

Disponible

El balanceador de carga de red de Atlas y el servicio de endpoint de VPC están creados y listos para recibir solicitudes de conexión.

Borrando

Atlas está eliminando el servicio de punto final privado.

Endpoint Status

Estado
Descripción

No configurado

Atlas creó el balanceador de carga de red y el servicio de punto final VPC, pero AWS aún no ha creado el endpoint de la interfaz. Haga clic en Edit y complete el asistente para crear el endpoint de la interfaz.

Aceptación pendiente

AWS ha recibido la solicitud de conexión de tu endpoint de la interfaz al VPC servicio de puntos finales de Atlas.

Pendiente

AWS está estableciendo la conexión entre tu endpoint de la interfaz y el servicio endpoint Atlas VPC.

Fallido

AWS no pudo establecer una conexión entre los recursos de Atlas VPC y el endpoint de la interfaz en tu VPC. Haz clic en Edit, verifica que la información que proporcionaste sea correcta y luego crea nuevamente el punto de conexión privado.

IMPORTANTE: Si tu Endpoint de Interfaz falla, es posible que veas el siguiente mensaje:

No dns entries found for endpoint vpce-<guid>,
your endpoint must be provisioned in at least one subnet.
Click "Edit" to fix the problem.

Este mensaje indica que no especificó una subred cuando creó la conexión de AWS PrivateLink. Para resolver este error:

  1. Haga clic en Edit.

  2. Haga clic en Back.

  3. Especifique al menos una subred.

  4. Sigue las instrucciones restantes para crear la conexión AWS PrivateLink.

Disponible

Los recursos de Atlas VPC están conectados al endpoint de la interfaz en su VPC. Puedes conectarte a los clústeres de Atlas en esta región usando AWS PrivateLink.

Borrando

Atlas está eliminando el punto final de la interfaz del servicio de punto final privado.

2
  1. Para cada recurso que necesite conectarse a sus clústeres Atlas mediante AWS PrivateLink, el grupo de seguridad del recurso debe permitir el tráfico saliente a las direcciones IP privadas del punto final de la interfaz en todos los puertos ( 102465535-).

    Consulta Agregar reglas a un grupo de seguridad para más información.

  2. Tu grupo de seguridad del endpoint de interfaz debe permitir el tráfico entrante en todos los puertos desde cada recurso que necesite conectarse a tus clústeres de Atlas usando AWS PrivateLink.

    Direcciones IP de instancia de lista de acceso o grupos de seguridad para permitir que el tráfico proveniente de ellas llegue al grupo de seguridad del endpoint de la interfaz.

Cuando un cliente en la VPC se conecta a un clúster de Atlas utilizando una de estas cadenas de conexión con reconocimiento de nodo privado, el cliente intenta establecer una conexión con el balanceador de carga en la VPC de Atlas a través de uno de los endpoints de la interfaz. El mecanismo de resolución de DNS del cliente gestiona a qué endpoint de la interfaz se resuelve el nombre de host. Si un endpoint de la interfaz no está disponible, se utiliza el siguiente. Esto es opaco para el driver o cualquier otro mecanismo de conexión. El driver solo es consciente del nombre de host en el registro SRV o en la cadena de conexión.

Registro SRV para cadenas de conexión con reconocimiento de nodos de la lista de semillas DNS

El siguiente ejemplo muestra el registro SRV para un clúster de una sola región habilitado con AWS PrivateLink, mostrando tres puertos únicos definidos para pl-0-us-east-1.k45tj.mongodb.net:

$ nslookup -type=SRV _mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net
Server: 127.0.0.53
Address: 127.0.0.53#53
Non-authoritative answer:
_mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net service = 0 0 1026 pl-0-us-east-1.k45tj.mongodb.net.
_mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net service = 0 0 1024 pl-0-us-east-1.k45tj.mongodb.net.
_mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net service = 0 0 1025 pl-0-us-east-1.k45tj.mongodb.net.

En el ejemplo precedente:

  • _mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net es el registro SRV al que hace referencia la cadena de conexión de mongodb+srv://cluster0-pl-0.k45tj.mongodb.net.

  • pl-0-us-east-1.k45tj.mongodb.net es el nombre de host de cada nodo en un clúster de Atlas en una región para la cual has configurado AWS PrivateLink.

  • 1024, 1025 y 1026 son puertos únicos que Atlas asigna en el balanceador de carga para cada nodo del set de réplicas de Atlas en la región para la que has habilitado AWS PrivateLink. Todos los nodos en un set de réplicas de Atlas son accesibles a través del mismo nombre de host, donde el balanceador de carga resuelve los nodos individuales por su puerto único.

Resolución de DNS del nombre de host en cadenas de conexión y registros SRV con reconocimiento de nodos privados

El nombre de host en el registro SRV y la cadena de conexión estándar es un registro DNS Canonical Name (CNAME) que se resuelve en el nombre DNS regional específico del punto de enlace que AWS genera para el punto de enlace de la interfaz. Existe un registro de ALIAS de DNS para cada subred en la VPC en la que se haya implementado el endpoint de la interfaz. Cada registro de ALIAS contiene la dirección IP privada del endpoint de la interfaz para esa subred.

El siguiente ejemplo muestra la búsqueda DNS para el nombre de host en el registro SRV y en la cadena de conexión estándar, incluido el nombre DNS regional específico del endpoint de la interfaz y sus registros DNS ALIAS:

$ nslookup pl-0-us-east-1.k45tj.mongodb.net
Server: 127.0.0.53
Address: 127.0.0.53#53
Non-authoritative answer:
pl-0-us-east-1.k45tj.mongodb.net
canonical name = vpce-024f5b57108c8d3ed-ypwbxwll.vpce-svc-02863655456245e5c.us-east-1.vpce.amazonaws.com.
Name: vpce-024f5b57108c8d3ed-ypwbxwll.vpce-svc-02863655456245e5c.us-east-1.vpce.amazonaws.com
Address: 10.0.30.194
Name: vpce-024f5b57108c8d3ed-ypwbxwll.vpce-svc-02863655456245e5c.us-east-1.vpce.amazonaws.com
Address: 10.0.20.54
$ mongosh "mongodb+srv://aws-replica-set-7-pl-0-lb.22qdu.mongodb-dev.net/" --apiVersion 1 --username sarah
Enter password: *****
Current Mongosh Log ID: 68910f1754be6d9adc74e399
Connecting to: mongodb+srv://<credentials>@aws-replica-set-7-pl-0-lb.22qdu.mongodb-dev.net/?appName=mongosh+2.5.6
MongoNetworkError: Client network socket disconnected before secure TLS connection was established
{"t":{"$date":"2025-08-04T19:48:17.649+00:00"},"s":"I", "c":"NETWORK",
"id":22942, "ctx":"listener","msg":"Connection refused because there are
too many open connections","attr":{"remote":"54.172.143.8:33205",
"isLoadBalanced":false,"uuid":{"uuid":{"$uuid":"e52e9c14-7648-430a-bc2e-95292347b7e0"}},
"connectionId":380,"connectionCount":58}}
  • Puedes ver la IP de origen del cliente en los registros mongos de los clústeres particionados que se conectan a través de nodos privados.

  • Puedes ver la IP de origen del cliente en los registros de mongod para los sets de réplicas que se conectan a través de nodos privados.

  • Puede ver la IP de origen del cliente en los registros de auditoría tanto para los conjuntos de réplicas como para los clústeres fragmentados que se conectan a través de puntos finales privados.

  • Esta funcionalidad es compatible con AWS para las siguientes versiones:

    • 8.1 y v8.1.0+

    • 8.0 y v8.0.10+

    • 7.0 y v7.0.22+

  • La dirección IP de origen del cliente y el puerto se indican en el campo sourceClient. Ese valor es 10.50.4.23 en el ejemplo anterior.

    {"t":{"$date":"2025-07-21T12:15:42.123+00:00"},"s":"I","c":"NETWORK",
    "id":22943,"ctx":"listener","msg":"Connection accepted","attr":{"remote":"192.168.100.55:31245",
    "isLoadBalanced":true,"sourceClient":"10.50.4.23:50123","uuid":{"uuid":{"$uuid":"12345678-abcd-4321-abcd-87654321abcd"}},
    "connectionId":345,"connectionCount":19}}

Reunir estos detalles requiere usar la herramienta jq, que se puede descargar del sitio web jq.

La siguiente query proporciona el número de conexiones creadas desde una dirección IP de cliente en particular. Ahora puedes recopilar la dirección IP privada de origen exacta de VPC usando el atributo sourceClient.

grep '"c":"NETWORK"' mongod.log | jq -c '.attr.sourceClient' | grep -v null | sort | uniq -c
1 "172.31.36.2:32958"
1 "172.31.36.2:52904"
1 "172.31.36.2:52908"
1 "172.31.36.2:52910"
1 "172.31.36.2:52918"

La siguiente query proporciona el número de conexiones creadas por cada driver. Esto es útil en escenarios donde los clientes pueden usar diferentes drivers para diferentes aplicaciones.

more mongodb.log| grep 'NETWORK' | jq -r '.attr.doc.driver.name' | grep -v null | sort | uniq -c | sort -rn
56447 mongo-go-driver
21633 mongo-java-driver|sync
75 mongo-java-driver|sync|Airbyte
4 nodejs|Mongoose

Para un análisis más detallado de los recuentos de conexiones y los detalles del controlador, puede utilizar el siguiente script de Python, que proporciona información completa sobre la cantidad de conexiones creadas y finalizadas, junto con los nombres de los controladores y los detalles de la versión.

import json
import sys
def process_log_file(json_file_path):
# Dictionary to store the filtered data
filtered_data = {}
with open(json_file_path, "r") as json_file:
# Read the file line by line
for line in json_file:
# Parse each line as a separate JSON object
data = json.loads(line)
if 'msg' in data and data['msg'] == 'client metadata':
# Extract the relevant data from the JSON object
drivername = data['attr']['doc']['driver']['name']
driverversion = data['attr']['doc']['driver']['version']
connectionid = data['ctx']
# Create a unique key for the driver based on name and version
driver_key = (drivername, driverversion)
# Add the connection ID to the driver's set of connections
if driver_key not in filtered_data:
filtered_data[driver_key] = {'connections': set(), 'opencount': 0, 'closedcount': 0}
filtered_data[driver_key]['connections'].add(connectionid)
filtered_data[driver_key]['opencount'] += 1
if 'msg' in data and data['msg'] == 'Connection ended':
connectionid = data['ctx']
# Check if the connection ID exists in any driver's connections
for driver_data in filtered_data.values():
if connectionid in driver_data['connections']:
driver_data['closedcount'] += 1
driver_data['connections'].remove(connectionid)
# Print the filtered data for each driver
for driver_key, driver_data in filtered_data.items():
print('Driver:', driver_key)
print('Connection Opened:', driver_data['opencount'])
print('Connection Closed:', driver_data['closedcount'])
if __name__ == '__main__':
# Check if a JSON file argument is provided
if len(sys.argv) < 2:
print("Please provide the path to a JSON file as an argument.")
sys.exit(1)
# Extract the JSON file path from the command-line arguments
json_file_path = sys.argv[1]
# Process the log file
process_log_file(json_file_path)
Driver: ('mongo-go-driver', 'v1.12.0-cloud')
Connection Opened: 14368
Connection Closed: 14362
Driver: ('mongo-go-driver', 'v1.12.1')
Connection Opened: 42056
Connection Closed: 41958
Driver: ('mongo-java-driver|sync', '4.11.1')
Connection Opened: 18012
Connection Closed: 17987
Driver: ('mongo-java-driver|sync', '4.8.2')
Connection Opened: 3621
Connection Closed: 3610
Driver: ('nodejs|Mongoose', '4.17.1|6.12.0')
Connection Opened: 3
Connection Closed: 1
Driver: ('mongo-go-driver', 'v1.13.0')
Connection Opened: 23
Connection Closed: 20
Driver: ('mongo-java-driver|sync|Airbyte', '4.11.0')
Connection Opened: 75
Connection Closed: 75
Driver: ('nodejs|Mongoose', '4.17.2|6.13.0')
Connection Opened: 1
Connection Closed: 0

Podemos sugerir a los clientes que incluyan el nombre de la aplicación en la cadena de conexión para especificar las diferentes aplicaciones que se conectan al clúster. Al appName usar, podemos identificar qué aplicación creará muchas conexiones al clúster en el futuro.Consulte la sección "Configuración Miscelánea" de nuestra documentación para obtener más información sobre el uso de appName en la cadena de conexión. Además, puede usar el db.currentOp().appname comando para ver las operaciones actuales asociadas con el nombre de la aplicación. La siguiente consulta proporciona detalles de appName con el número de conexiones creadas por esa aplicación en particular.

more mongodb.log| grep 'NETWORK' | jq -r '.attr.doc.application.name' | grep -v null | sort | uniq -c | sort -rn
10809 niyo-*******-api
8616 MongoDB CPS Module v13.17.2.8878 (git: 70c0b932f47f4f0b3e82a75e223f39ed9635b47f)
7203 niyo-ns*****
5752 MongoDB Automation Agent v13.17.2.8878 (git: 70c0b932f47f4f0b3e82a75e223f39ed9635b47f)
3601 *****-auth-service

Los detalles proporcionados ayudan a identificar los factores específicos que contribuyen al alto número de conexiones. Al analizar la IP del cliente de origen, los metadatos del cliente, el uso del controlador y los nombres de las aplicaciones, puede identificar los elementos responsables del aumento de conexiones y determinar las áreas necesarias para investigar. Este enfoque específico le permite ignorar otros factores menos relevantes y concentrarse en abordar los problemas con la información destacada, optimizando así el proceso de mitigación y mejorando el rendimiento del clúster.

Los puntos finales privados solo están disponibles en clústeres de varias regiones si hay un nodo dentro de cada región que cubre el clúster que tenga configurado un punto final privado. Para obtener más información sobre la configuración de nodos privados multirregionales, consulta Nodos privados regionalizados para clústeres multiregión.

indexación de cadena de conexión para clústeres multiregionales

Después de configurar un punto final privado para una nueva región e implementar nodos de clúster en esa región, es posible que vea el siguiente error cuando use su punto final privado para conectarse al clúster:

DNSHostNotFound: Failed to look up service "<MongoDB service name>"

Este error se produce cuando el índice de la cadena de conexión cambia automáticamente y el cliente se reinicia posteriormente, lo que provoca una búsqueda de DNS en SRV. La cadena de conexión del punto final privado de un clúster multirregional utiliza el índice 0. Si la cadena de conexión utiliza un índice diferente, MongoDB la actualiza automáticamente para usar el índice 0.

Por ejemplo, puedes configurar dos nodos privados para una región. Si remueves el primer punto final privado, tu cadena de conexión utiliza un índice de 1 y se parece a lo siguiente:

mongodb+srv://cluster1-psc-0.4uyx2d.mongodb.net

Supongamos que configura un punto final privado para una nueva región de su clúster y, posteriormente, agrega nodos de clúster a esa región. Su clúster ahora incluye varias regiones y su cadena de conexión se actualiza para usar un índice de 0:

mongodb+srv://cluster1-psc-1.4uyx2d.mongodb.net

Para evitar posibles problemas de conectividad después del próximo reinicio de su cliente, confirme que está utilizando la cadena de conexión del endpoint privado indexado en cero para conectarse a su clúster. Puedes acceder a la cadena de conexión actualizada del endpoint privado desde la UI o la API de Atlas después de que se completen los cambios en tu clúster.

Puedes utilizar las herramientas nslookup y telnet para probar la conectividad desde tu aplicación a tus nodos privados en Atlas.

1

Ejecute nslookup con la bandera -type=SRV para obtener los números de puerto asociados con cada uno de los nodos de su clúster.

nslookup -type=SRV _mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net
Server: 127.0.0.53
Address: 127.0.0.53#53
Non-authoritative answer:
_mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net service = 0 0 1026 pl-0-us-east-1.k45tj.mongodb.net.
_mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net service = 0 0 1024 pl-0-us-east-1.k45tj.mongodb.net.
_mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net service = 0 0 1025 pl-0-us-east-1.k45tj.mongodb.net.
2

Desde tu entorno de aplicación, con uno de los puertos listados (por ejemplo, 1026, 1024 o 1025 en el resultado del ejemplo anterior), ejecuta el siguiente comando telnet para probar la conectividad:

telnet pl-0-<xyz>.mongodb.net 1024
telnet pl-0-<xyz>.mongodb.net 1025
telnet pl-0-<xyz>.mongodb.net 1026

Para ver el estado de cada punto final privado:

1
  1. Si aún no aparece, se debe seleccionar la organización que contiene el proyecto en el menú Organizations de la barra de navegación.

  2. Si aún no se muestra, seleccione su proyecto en el menú Projects de la barra de navegación.

  3. En la barra lateral, haz clic en Database & Network Access en la sección Security.

La página Acceso a la base de datos y a la red se muestra.

2
3

Los campos Atlas Endpoint Service Status y Endpoint Status muestran el estado de cada nodo privado.

Consulta los siguientes estados para ayudarte a determinar el estado de tus conexiones de nodos privados:

Atlas Endpoint Service Status

Estado
Descripción

Crear vínculo privado

Atlas está creando el equilibrador de carga y los recursos de VNet.

Fallido

Se ha producido un fallo del sistema.

Disponible

Atlas creó el balanceador de carga y el servicio privado de Azure Private Link. El servicio Azure Private Link está listo para recibir solicitudes de conexión.

Borrando

Atlas está eliminando Azure Private Link.

Endpoint Status

Estado
Descripción

No configurado

Atlas creó el balanceador de carga y el servicio Azure Private Link, pero aún no has creado un punto de conexión privado. Haz clic en Edit y completa el asistente para crear el nodo privado.

Iniciando

Atlas aún no ha aceptado la conexión a tu punto de enlace privado.

Fallido

Azure no logró establecer una conexión entre los recursos de Atlas VNet y el nodo privado en su VNet. Haz clic en Edit, verifica que la información que proporcionaste sea correcta y luego vuelve a crear el nodo privado.

Disponible

Los recursos Atlas VNet están conectados al nodo privado en tu VNet. Puedes conectarte a clústeres de Atlas en esta región usando Azure Private Link.

Borrando

Atlas está removiendo la conexión de endpoint privado del Servicio de Azure Private Link.

Cuando un cliente en tu VNet se conecta a un clúster de Atlas usando una de estas cadenas de conexión compatibles con el nodo privado, el cliente intenta establecer una conexión con el servicio Private Link en el VNet de Atlas a través de la interfaz de red del nodo privado. El servicio Private Link envía tráfico a través de un balanceador de carga estándar de Azure a los nodos de clúster de Atlas que implementaste en esa región. El mecanismo de resolución de DNS de tu cliente gestiona la conversión del nombre de host a la dirección IP privada de la interfaz de red. El driver solo es reconoce el nombre de host en la cadena de conexión y escucha en un puerto por cada nodo del set de réplicas del clúster.

Registro SRV para cadenas de conexión con reconocimiento de nodos de la lista de semillas DNS

El siguiente ejemplo muestra el registro SRV de un clúster de una sola región habilitado para Azure Private Link, mostrando tres puertos únicos definidos para pl-0-eastus2.uzgh6.mongodb.net:

$ nslookup -type=SRV _mongodb._tcp.cluster0-pl-0.uzgh6.mongodb.net
Server: 127.0.0.53
Address: 127.0.0.53#53
Non-authoritative answer:
_mongodb._tcp.cluster0-pl-0.uzgh6.mongodb.net service = 0 0 1024 pl-0-eastus2.uzgh6.mongodb.net.
_mongodb._tcp.cluster0-pl-0.uzgh6.mongodb.net service = 0 0 1025 pl-0-eastus2.uzgh6.mongodb.net.
_mongodb._tcp.cluster0-pl-0.uzgh6.mongodb.net service = 0 0 1026 pl-0-eastus2.uzgh6.mongodb.net.

En el ejemplo precedente:

  • _mongodb._tcp.cluster0-pl-0.uzgh6.mongodb.net es el registro SRV al que hace referencia la cadena de conexión.

  • pl-0-eastus2.uzgh6.mongodb.net es el nombre de host de cada nodo en un clúster Atlas en una región para la que ha configurado Azure Private Link.

  • 10241025 y 1026 son puertos exclusivos que Atlas asigna en el balanceador de carga para cada nodo de set de réplicas de Atlas en la región para la que habilitó Azure Private Link. Todos los nodos en un Atlas set de réplicas son accesibles mediante el mismo nombre de host, con el balanceador de carga resolviendo cada nodo por su puerto individual.

Resolución de DNS del nombre de host en cadenas de conexión y registros SRV con reconocimiento de nodos privados

El hostname en el registro SRV y la cadena de conexión estándar es un DNS A registro que resuelve la dirección IP privada de la network interface del nodo privado.

El siguiente ejemplo muestra la consulta de DNS para el nombre de host en el registro SRV y en la cadena de conexión estándar:

$ nslookup pl-0-eastus2.uzgh6.mongodb.net
Server: 127.0.0.53
Address: 127.0.0.53#53
Non-authoritative answer:
Name: pl-0-eastus2.uzgh6.mongodb.net
Address: 10.0.0.4

Los puntos finales privados solo están disponibles en clústeres de varias regiones si hay un nodo dentro de cada región que cubre el clúster que tenga configurado un punto final privado. Para obtener más información sobre la configuración de nodos privados multirregionales, consulta Nodos privados regionalizados para clústeres particionados multirregionales.

indexación de cadena de conexión para clústeres multiregionales

Después de configurar un punto final privado para una nueva región e implementar nodos de clúster en esa región, es posible que vea el siguiente error cuando use su punto final privado para conectarse al clúster:

DNSHostNotFound: Failed to look up service "<MongoDB service name>"

Este error se produce cuando el índice de la cadena de conexión cambia automáticamente y el cliente se reinicia posteriormente, lo que provoca una búsqueda de DNS en SRV. La cadena de conexión del punto final privado de un clúster multirregional utiliza el índice 0. Si la cadena de conexión utiliza un índice diferente, MongoDB la actualiza automáticamente para usar el índice 0.

Por ejemplo, puedes configurar dos nodos privados para una región. Si remueves el primer punto final privado, tu cadena de conexión utiliza un índice de 1 y se parece a lo siguiente:

mongodb+srv://cluster1-psc-0.4uyx2d.mongodb.net

Supongamos que configura un punto final privado para una nueva región de su clúster y, posteriormente, agrega nodos de clúster a esa región. Su clúster ahora incluye varias regiones y su cadena de conexión se actualiza para usar un índice de 0:

mongodb+srv://cluster1-psc-1.4uyx2d.mongodb.net

Para evitar posibles problemas de conectividad después del próximo reinicio de su cliente, confirme que está utilizando la cadena de conexión del endpoint privado indexado en cero para conectarse a su clúster. Puedes acceder a la cadena de conexión actualizada del endpoint privado desde la UI o la API de Atlas después de que se completen los cambios en tu clúster.

Puedes utilizar las herramientas nslookup y telnet para probar la conectividad desde tu aplicación a tus nodos privados en Atlas.

1

Ejecute nslookup con la bandera -type=SRV para obtener los números de puerto asociados con cada uno de los nodos de su clúster.

nslookup -type=SRV _mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net
Server: 127.0.0.53
Address: 127.0.0.53#53
Non-authoritative answer:
_mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net service = 0 0 1026 pl-0-us-east-1.k45tj.mongodb.net.
_mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net service = 0 0 1024 pl-0-us-east-1.k45tj.mongodb.net.
_mongodb._tcp.cluster0-pl-0.k45tj.mongodb.net service = 0 0 1025 pl-0-us-east-1.k45tj.mongodb.net.
2

Desde tu entorno de aplicación, con uno de los puertos listados (por ejemplo, 1026, 1024 o 1025 en el resultado del ejemplo anterior), ejecuta el siguiente comando telnet para probar la conectividad:

telnet pl-0-<xyz>.mongodb.net 1024
telnet pl-0-<xyz>.mongodb.net 1025
telnet pl-0-<xyz>.mongodb.net 1026

Para ver el estado de cada punto final privado:

1
  1. Si aún no aparece, se debe seleccionar la organización que contiene el proyecto en el menú Organizations de la barra de navegación.

  2. Si aún no se muestra, seleccione su proyecto en el menú Projects de la barra de navegación.

  3. En la barra lateral, haz clic en Database & Network Access en la sección Security.

La página Acceso a la base de datos y a la red se muestra.

2
3

Los campos Atlas Endpoint Service Status y Endpoint Status muestran el estado de cada nodo privado.

Consulta los siguientes estados para ayudarte a determinar el estado de tus conexiones de nodos privados:

Atlas Endpoint Service Status

Estado
Descripción

Crear vínculo privado

Atlas está creando el equilibrador de carga de red y los recursos de VPC.

Fallido

Se ha producido un fallo del sistema.

Disponible

Atlas creó el balanceador de carga de red y el servicio de punto final de VPC. El servicio de punto final privado está listo para recibir solicitudes de conexión.

Borrando

Atlas está eliminando el servicio de punto final privado.

Endpoint Status

Estado
Descripción

Iniciando

Atlas aún no está conectado a su punto final privado y aún no ha aceptado los puntos finales.

Esperando al usuario

Los recursos de VPC en Atlas están listos para su uso. Debe configurar los endpoints dentro de su VPC ejecutando el script de comandos shell.

Verificado.

Atlas verificó los puntos de conexión dentro de tu VPC, pero aún no ha aceptado el punto de conexión privado en tu VPC de Google Cloud. El podría tardar varios minutos en Endpoint Status convertirse Available en.

Disponible

Los recursos de Atlas VPC están conectados al nodo privado de tu Google Cloud VPC. Atlas ha aceptado los endpoints. Puede conectarse a los clústeres de Atlas en esta región usando GCP Private Service Connect.

Activo

Atlas está listo para usar recursos de VPC. Atlas ha aceptado los endpoints. Se asigna una VM a la conexión de servicio privada.

Fallido

Google Cloud no pudo establecer una conexión entre los recursos Atlas VPC y el nodo privado en tu Google Cloud VPC. Haz clic en Edit, verifica que la información proporcionada sea correcta y, a continuación, crea de nuevo el punto privado.

Nota: Si ves el mensaje de error "No se pudo encontrar el extremo en GCP. Verifique que el nombre del endpoint sea correcto y que se haya creado en el proyecto correcto de GCP, y vuelva a intentarlo. Puede que haya escrito mal el nombre de su nodo privado o que aún deba crearlo. Para resolver esto, haz clic en Edit y asegúrate de que los campos sean correctos.

Deleted

Eliminaste manualmente el endpoint privado de una región en Atlas. También debes borrar los nodos privados en Google Cloud para borrar los recursos. Eliminación pendiente del grupo de regiones.

4

Para cada recurso que necesite conectarse a sus clústeres de Atlas mediante GCP Private Service Connect, debe permitir el tráfico saliente a las direcciones IP privadas de la regla de reenvío en todos los puertos (1024-).65535 Consulte "Administración de la seguridad del consumidor para PSC" para obtener más información.

Los puntos finales privados solo están disponibles en clústeres de varias regiones si hay un nodo dentro de cada región que cubre el clúster que tenga configurado un punto final privado. Para obtener más información sobre la configuración de nodos privados multirregionales, consulta Nodos privados regionalizados para clústeres particionados multirregionales.

indexación de cadena de conexión para clústeres multiregionales

Después de configurar un punto final privado para una nueva región e implementar nodos de clúster en esa región, es posible que vea el siguiente error cuando use su punto final privado para conectarse al clúster:

DNSHostNotFound: Failed to look up service "<MongoDB service name>"

Este error se produce cuando el índice de la cadena de conexión cambia automáticamente y el cliente se reinicia posteriormente, lo que provoca una búsqueda de DNS en SRV. La cadena de conexión del punto final privado de un clúster multirregional utiliza el índice 0. Si la cadena de conexión utiliza un índice diferente, MongoDB la actualiza automáticamente para usar el índice 0.

Por ejemplo, puedes configurar dos nodos privados para una región. Si remueves el primer punto final privado, tu cadena de conexión utiliza un índice de 1 y se parece a lo siguiente:

mongodb+srv://cluster1-psc-0.4uyx2d.mongodb.net

Supongamos que configura un punto final privado para una nueva región de su clúster y, posteriormente, agrega nodos de clúster a esa región. Su clúster ahora incluye varias regiones y su cadena de conexión se actualiza para usar un índice de 0:

mongodb+srv://cluster1-psc-1.4uyx2d.mongodb.net

Para evitar posibles problemas de conectividad después del próximo reinicio de su cliente, confirme que está utilizando la cadena de conexión del endpoint privado indexado en cero para conectarse a su clúster. Puedes acceder a la cadena de conexión actualizada del endpoint privado desde la UI o la API de Atlas después de que se completen los cambios en tu clúster.

Puedes utilizar las herramientas nslookup y telnet para probar la conectividad desde tu aplicación a tus nodos privados en Atlas.

1

Ejecute nslookup con la bandera -type=SRV para obtener los números de puerto asociados con cada uno de los nodos de su clúster.

nslookup -debug -type=SRV _mongodb._tcp.cluster1-psc-0.j735c.mongodb.net
Server: 127.0.2.2
Address: 127.0.2.2#53
------------
QUESTIONS:
_mongodb._tcp.cluster1-psc-0.j735c.mongodb.net, type = SRV, class = IN
ANSWERS:
-> _mongodb._tcp.cluster1-psc-0.j735c.mongodb.net
service = 0 0 1024 pl-0-us-central1-gcp.j735c.mongodb.net.
ttl = 60
-> _mongodb._tcp.cluster1-psc-0.j735c.mongodb.net
service = 0 0 1025 pl-0-us-central1-gcp.j735c.mongodb.net.
ttl = 60
-> _mongodb._tcp.cluster1-psc-0.j735c.mongodb.net
service = 0 0 1026 pl-0-us-central1-gcp.j735c.mongodb.net.
ttl = 60
AUTHORITY RECORDS:
ADDITIONAL RECORDS:
------------
Non-authoritative answer:
_mongodb._tcp.cluster1-psc-0.j735c.mongodb.net service = 0 0 1024 pl-0-us-central1-gcp.j735c.mongodb.net.
_mongodb._tcp.cluster1-psc-0.j735c.mongodb.net service = 0 0 1025 pl-0-us-central1-gcp.j735c.mongodb.net.
_mongodb._tcp.cluster1-psc-0.j735c.mongodb.net service = 0 0 1026 pl-0-us-central1-gcp.j735c.mongodb.net.
Authoritative answers can be found from:
telnet pl-0-us-central1-gcp.j735c.mongodb.net 1024
2

Desde tu entorno de aplicación, con uno de los puertos listados (por ejemplo, 27017 en el resultado del ejemplo anterior), ejecuta el siguiente comando telnet para probar la conectividad:

telnet pl-0-<xyz>.mongodb.net 27017

Volver

Gestiona y conéctate

En esta página