Para proporcionarle rápidamente su mongot En una implementación con un equilibrio adecuado de recursos para la mayoría de los casos de uso general, un nodo pequeño o mediano con alto consumo de CPU suele ser un punto de partida eficaz. Esta configuración proporciona una base sólida para cargas de trabajo de búsqueda comunes.
Para un aprovisionamiento de recursos más preciso y adaptado a una carga de trabajo específica, revise las siguientes páginas:
Estas páginas ofrecen orientación sobre aplicaciones de misión crítica o cuando se requiere una optimización de mayor fidelidad.
Nota
El dimensionamiento de recursos para cargas de trabajo de búsqueda y búsqueda vectorial es un proceso iterativo. Estos ejemplos representan un punto de partida, pero podrían requerirse consideraciones y mediciones avanzadas para dimensionar una carga de trabajo específica.
Clases de carga de trabajo
mongot Las implementaciones se dividen en dos clases:
CPU baja (adecuada para volúmenes de datos más bajos y búsqueda vectorial)
Alto consumo de CPU (adecuado para grandes volúmenes de datos y búsqueda de texto completo)
Utilice la siguiente guía para seleccionar una configuración inicial que coincida con las necesidades de su aplicación.
Cargas de trabajo de baja CPU
El arquetipo de CPU baja es ideal para aplicaciones de búsqueda vectorial o volúmenes de datos bajos donde se prioriza la memoria sobre la potencia bruta de la CPU. Estos nodos suelen tener una 8 1 relación RAM-CPU de:. Un factor clave para determinar la categoría de tamaño adecuada es una estimación del tamaño total esperado del vector. Para ver los rangos de tamaño de vector de referencia, consulte la tabla del paso "Seleccionar un tamaño inicial"de la Introducción.
La siguiente tabla muestra recomendaciones de memoria, almacenamiento y núcleos de CPU según la carga de trabajo esperada en implementaciones de CPU baja:
Categoría de tamaño de carga de trabajo | Memoria predeterminada (GB) | Almacenamiento predeterminado (GB) | Núcleos de CPU |
|---|---|---|---|
Pequeño | 8 - 16 | 50 - 100 | 1 - 2 |
Intermedio | 32 - 64 | 200 - 400 | 4 - 8 |
Grandes | 128 - 256 | 800 - 1600 | 16 - 32 |
Consideraciones adicionales:
Pequeño: adecuado para pruebas iniciales o aplicaciones de búsqueda de vectores muy pequeñas.
Medio: adecuado para casos de uso de búsqueda vectorial en crecimiento o volúmenes de datos moderados.
Grande: adecuado para aplicaciones de búsqueda de vectores importantes o cargas de trabajo más grandes con bajo consumo de CPU.
Cargas de trabajo de CPU alta
El arquetipo de CPU alta está diseñado para cargas de trabajo de búsqueda de texto completo de propósito general, donde las consultas requieren un mayor uso de la CPU. Estos nodos suelen tener una 2 1 relación RAM/CPU de:. Los factores clave para determinar la categoría de tamaño adecuada incluyen el rendimiento requerido (QPS) y la carga de indexación esperada. El volumen de inserciones puede servir como indicador de la carga de indexación. Un mayor número de inserciones generalmente indica un mayor nivel de actividad de indexación. Para ver los rangos de QPS de referencia, consulte la tabla en el paso "Seleccionar un tamaño inicial" de la Introducción.
La siguiente tabla muestra recomendaciones de memoria, almacenamiento y núcleos de CPU según la carga de trabajo esperada en implementaciones de alta CPU:
Categoría de tamaño de carga de trabajo | Memoria predeterminada (GB) | Almacenamiento predeterminado (GB) | Núcleos de CPU |
|---|---|---|---|
Pequeño | 4 - 8 | 100 - 200 | 2 - 4 |
Intermedio | 16 - 32 | 400 - 800 | 8 - 16 |
Grandes | 64 - 96 | 1600 - 2400 | 32 - 48 |
Consideraciones adicionales:
Pequeño: Un punto de partida para la búsqueda de texto completo con tasas de consulta moderadas. Una configuración mínima de dos nodos pequeños (4 CPU en total) admite aproximadamente 40 QPS.
Medio: Adecuado para aplicaciones de búsqueda de texto completo más activas con mayor rendimiento de consultas.
Grande: adecuado para búsquedas de texto completo exigentes, indexación pesada o cargas de trabajo de consultas sustanciales.
Consideraciones para grandes cargas de trabajo de búsqueda vectorial
La búsqueda vectorial es un área clave de enfoque para las aplicaciones de IA. Técnicas modernas como la cuantización binaria automática están trasladando la principal restricción de recursos de la RAM al almacenamiento. La cuantificación binaria hace que los índices estén más restringidos por el almacenamiento.
En estos casos, considere un nodo de clase de bajo consumo de CPU con una gran cantidad de almacenamiento disponible. Este gran almacenamiento admite incrustaciones vectoriales de alta fidelidad y la versión cuantificada de las incrustaciones vectoriales de origen. Esta alineación de recursos con la carga de trabajo garantiza la creación y escalabilidad de aplicaciones de IA modernas de forma eficiente y económica.