대부분의 일반적인 사용 사례에 적합한 리소스 균형을 mongot
배포서버 에 빠르게 제공하려면 중소 규모의 고성능 CPU 노드 효과적인 점 인 경우가 많습니다. 이 구성은 일반적인 검색 워크로드를 위한 견고한 기반을 제공합니다.
특정 워크로드 에 맞게 조정된 보다 정확한 리소스 프로비저닝 보려면 다음 페이지를 검토 .
이 페이지에서는 미션 크리티컬 애플리케이션 또는 고충실도 최적화가 필요한 경우에 대한 지침 제공합니다.
참고
검색 및 벡터 검색 워크로드에 대한 리소스 크기 조정은 반복적인 프로세스 입니다. 이러한 예는 점 이지만 특정 워크로드 크기를 조정하려면 고급 고려 사항과 측정값이 필요할 수 있습니다.
워크로드 클래스
mongot
배포는 두 가지 클래스로 나뉩니다.
Low-CPU(낮은 데이터 볼륨 및 벡터 검색 에 적합)
고성능 CPU(대량의 데이터 볼륨 및 전체 텍스트 검색 에 적합)
다음 지침 사용하여 애플리케이션의 요구 사항에 맞는 시작 구성을 선택하세요.
낮은 CPU 워크로드
낮은 CPU 아키텍처는 벡터 검색 애플리케이션이나 원시 CPU 성능보다 메모리가 우선시되는 낮은 데이터 볼륨에 이상적입니다. 이러한 노드의 RAM 대 CPU 비율은 일반적으로8:1 입니다. 적절한 크기 범주를 결정하는 핵심 요소는 예상 총 벡터 크기의 추정치입니다. 참조 벡터 크기 범위를 확인하려면 소개의 시작 크기 선택 단계에 있는 표를 참조하세요.
다음 표는 Low-CPU 배포에서 예상 워크로드 기반으로 하는 메모리, 저장 및 CPU 코어에 대한 권장 사항을 보여줍니다.
워크로드 크기 범주 | 기본 메모리(GB) | 기본 스토리지(GB) | CPU 코어 |
---|---|---|---|
소형 | 8 - 16 | 50 - 100 | 1 - 2 |
중간 | 32 - 64 | 200 - 400 | 4 - 8 |
대형 | 128 - 256 | 800 - 1600 | 16 - 32 |
추가 고려 사항
소형: 초기 테스트 또는 매우 작은 벡터 검색 애플리케이션에 적합합니다.
중간: 증가하는 벡터 검색 사용 사례 또는 중간 정도의 데이터 볼륨에 적합합니다.
대형: 대규모 벡터 검색 애플리케이션이나 CPU를 많이 사용하지 않는 대규모 워크로드에 적합합니다.
높은 CPU 워크로드
하이 CPU 아키텍처는 쿼리가 CPU를 더 많이 사용하는 범용 전체 텍스트 검색 워크로드를 위해 설계되었습니다. 이러한 노드의 RAM 대 CPU 비율은 일반적으로2:1 입니다. 적절한 크기 범주를 결정하는 주요 요소에는 필요한 처리량 (QPS)과 예상 인덱싱 로드가 포함됩니다. 삽입 볼륨은 인덱싱 로드의 프록시 제공 할 수 있습니다. 삽입 수가 많을수록 일반적으로 인덱싱 활동 수준이 높다는 의미입니다. 참고 QPS 범위를 확인하려면 소개의 시작 크기 선택 단계에 있는 표를 참조하세요.
다음 표는 고성능 CPU 배포에서 예상되는 워크로드 를 기반으로 한 메모리, 저장 및 CPU 코어에 대한 권장 사항을 보여줍니다.
워크로드 크기 범주 | 기본 메모리(GB) | 기본 스토리지(GB) | CPU 코어 |
---|---|---|---|
소형 | 4 - 8 | 100 - 200 | 2 - 4 |
중간 | 16 - 32 | 400 - 800 | 8 - 16 |
대형 | 64 - 96 | 1600 - 2400 | 32 - 48 |
추가 고려 사항
소형: 중간 정도의 쿼리 속도로 전체 텍스트 검색 위한 시작점. 작은 노드 2개의 최소 설정 (총 4 CPU)은 대략 40 QPS를 지원합니다.
Medium(중간): 쿼리 처리량 더 많은 활동적인 전체 텍스트 검색 애플리케이션에 적합합니다.
대형: 까다로운 전체 텍스트 검색, 과도한 인덱싱 또는 상당한 쿼리 워크로드에 적합합니다.
대규모 벡터 검색 워크로드에 대한 고려 사항
벡터 검색 은 AI 애플리케이션의 주요 초점 영역입니다. 자동 이진 양자화와 같은 최신 기술은 프라이머리 리소스 제약 조건을 RAM 에서 저장 로 옮기고 있습니다. 이진 양자화를 사용하면 인덱스의 저장 공간이 더욱 제한됩니다.
이러한 경우에는 사용 가능한 저장 가 많은 Low-CPU 클래스 노드 고려하는 것이 좋습니다. 대용량 저장 완전 충실도 벡터 임베딩과 소스 벡터 임베딩의 양자화된 버전을 지원합니다. 워크로드 에 대한 이러한 리소스 정렬을 통해 최신 AI 애플리케이션을 효율적이고 경제적으로 빌드 하고 확장하다 할 수 있습니다.