Join us at MongoDB.local London on 7 May to unlock new possibilities for your data. Use WEB50 to save 50%.
Register now >
Docs Menu
Docs Home
/

mongot Guía rápida de dimensionamiento

Para proporcionar rápidamente su mongot la implementación con un equilibrio saludable de recursos para la mayoría de los casos de uso general, un nodo pequeño o mediano de alta CPU suele ser un punto de partida eficaz. Esta configuración proporciona una base sólida para cargas de trabajo comunes de búsqueda.

Para un provisionamineto de recursos más preciso adaptado a una carga de trabajo específica, revise las siguientes páginas:

  • Patrones de arquitectura de implementación

  • Consideraciones sobre la asignación de recursos

  • Consideraciones sobre el hardware

Estas páginas ofrecen orientación sobre aplicaciones críticas para la misión o cuando se requiere una optimización de mayor fidelidad.

Nota

Dimensionar los recursos para cargas de trabajo de búsqueda y búsqueda vectorial es un proceso iterativo. Estos ejemplos representan un punto de partida, pero podrían requerirse consideraciones avanzadas y mediciones para dimensionar una carga de trabajo específica.

mongot Las implementaciones se dividen en dos clases:

  • CPU baja (adecuada para volúmenes de datos más bajos y búsqueda vectorial)

  • De alto nivel de CPU (apto para mayores volúmenes de datos y búsqueda de texto completo)

Utiliza la siguiente orientación para seleccionar una configuración inicial que se ajuste a las necesidades de tu aplicación.

El arquetipo de CPU baja es ideal para aplicaciones de búsqueda vectorial o volúmenes de datos bajos donde se da prioridad a la memoria sobre la potencia bruta de la CPU. Estos nodos suelen tener una 8:1 proporción de RAM a CPU. Un factor clave para determinar la categoría de tamaño adecuada es una estimación de tu tamaño total de vector esperado. Para ver los rangos de tamaño de referencia de los vectores, consulta la tabla en el paso Selecciona un tamaño inicial de la Introducción.

La siguiente tabla muestra recomendaciones para memoria, almacenamiento y núcleos de CPU según la carga de trabajo esperada en implementaciones de bajo uso de CPU:

Categoría de tamaño de carga de trabajo
Memoria por defecto (GB)
Almacenamiento predeterminado (GB)
Núcleos de CPU

Pequeño

8 - 16

50 - 100

1 - 2

Intermedio

32 - 64

200 - 400

4 - 8

Grande

128 - 256

800 - 1600

16 - 32

Consideraciones adicionales:

  • Pequeño: adecuado para pruebas iniciales o aplicaciones de búsqueda de vectores muy pequeñas.

  • Medio: adecuado para casos de uso de búsqueda vectorial en crecimiento o volúmenes de datos moderados.

  • Grande: adecuado para aplicaciones de búsqueda de vectores importantes o cargas de trabajo más grandes con bajo consumo de CPU.

El arquetipo de CPU alta está diseñado para cargas de trabajo de búsqueda de texto completo de propósito general, donde las consultas requieren un mayor uso de la CPU. Estos nodos suelen tener una 2 1 relación RAM/CPU de:. Los factores clave para determinar la categoría de tamaño adecuada incluyen el rendimiento requerido (QPS) y la carga de indexación esperada. El volumen de inserciones puede servir como un indicador de la carga de indexación. Más inserciones generalmente indican un mayor nivel de actividad de indexación. Para ver los rangos de QPS de referencia, consulta la tabla en el paso Seleccionar un tamaño inicial de la Introducción.

La siguiente tabla muestra recomendaciones para la memoria, el almacenamiento y los núcleos de CPU en función de la carga de trabajo esperada en implementaciones de alta CPU:

Categoría de tamaño de carga de trabajo
Memoria por defecto (GB)
Almacenamiento predeterminado (GB)
Núcleos de CPU

Pequeño

4 - 8

100 - 200

2 - 4

Intermedio

16 - 32

400 - 800

8 - 16

Grande

64 - 96

1600 - 2400

32 - 48

Consideraciones adicionales:

  • Pequeño: Un punto de partida para la búsqueda de texto completo con tasas de consulta moderadas. Una configuración mínima de dos nodos pequeños (4 CPU en total) admite aproximadamente 40 QPS.

  • Medio: Adecuado para aplicaciones de búsqueda en texto completo más activas con mayor rendimiento de query.

  • Grande: adecuado para búsquedas de texto completo exigentes, indexación pesada o cargas de trabajo de consultas sustanciales.

La búsqueda vectorial es un área clave de enfoque para las aplicaciones de IA. Técnicas modernas como la cuantización binaria automática están trasladando la principal restricción de recursos de la RAM al almacenamiento. La cuantificación binaria hace que los índices estén más restringidos por el almacenamiento.

En estos casos, considere un nodo de clase baja de CPU con una gran cantidad de almacenamiento disponible. El almacenamiento grande admite incrustaciones vectoriales de fidelidad completa y la versión cuantificada de las incrustaciones vectoriales de origen. Esta alineación de recursos con la carga de trabajo garantiza que puedas compilar y escalar aplicaciones modernas de IA de manera eficiente y económica.

Volver

Introducción

En esta página