- Atlas 아키텍처 센터는 초기 출시하다 에 있습니다. MongoDB 다음을 추가할 예정입니다.
- 향후 릴리스에서 외부 표준 및 플러그 앤 플레이 Terraform 코드 리포지토리 컴플라이언스 위한 권장 사항을 제공합니다.
고가용성은 인프라 중단, 시스템 유지 관리 및 기타 중단 시 지속적인 운영을 보장하고 다운타임을 최소화할 수 있는 애플리케이션 의 기능 입니다. MongoDB의 기본값 배포서버 아키텍처는 데이터 중복성 및 자동 페일오버 기능이 내장 고가용성 위해 설계되었습니다. 이 페이지에서는 구역, 리전 및 cloud 제공자 중단에 대한 중단을 방지하고 강력한 페일오버 메커니즘을 지원 위해 선택할 수 있는 추가 구성 옵션과 배포서버 아키텍처 개선 사항에 대해 설명합니다.
고가용성을 위한 Atlas 기능
데이터베이스 복제
MongoDB의 기본값 배포서버 아키텍처는 중복성을 위해 설계되었습니다. Atlas 각 클러스터 선택한 cloud 제공자 리전 내의 별도 가용영역에 분산된 최소 3개의 데이터베이스 인스턴스(노드 또는 복제본 세트 멤버라고도 함)가 있는 복제본 세트 로 배포합니다. 애플리케이션이 복제본 세트의 프라이머리 노드 에 데이터를 쓰기 (write) 다음, Atlas 클러스터 내의 모든 노드에 해당 데이터를 복제하고 저장합니다. 데이터 저장 의 내구성 을 제어 하려면 특정 수의 보조 노드 가 쓰기 (write) 커밋한 후에만 쓰기 (write) 완료 하도록 애플리케이션 코드 의 쓰기 고려 (write concern) 조정할 수 있습니다 . 기본값 동작은 조치 확인하기 전에 데이터가 대다수의 투표 선택 가능 노드에 유지되는 것입니다.
다음 다이어그램은 기본값 3노드 복제본 세트 대한 복제 작동 방식을 나타냅니다.

자동 페일오버
인프라 중단, 예정된 유지 관리 또는 기타 중단으로 인해 복제본 세트 의 프라이머리 노드 사용할 수 없게 되는 이벤트 , Atlas 클러스터는 복제본 세트 투표 에서 기존 세컨더리 노드 프라이머리 노드 역할 로 승격시켜 자가 복구됩니다. 이 페일오버 프로세스 완전 자동이며 실패 시점에 진행 중이던 작업(재시도 가능 쓰기가 활성화된 경우 실패 후 다시 시도되는 작업 포함)을 포함하여 데이터 손실 없이 몇 초 내에 완료됩니다. 복제본 세트 투표 후, Atlas 실패한 멤버를 복원하거나 교체하여 클러스터 가능한 한 빨리 대상 구성으로 돌아갈 수 있도록 합니다. 또한 MongoDB 클라이언트 운전자 실패 중과 실패 후에 모든 클라이언트 연결을 자동으로 전환합니다.
다음 다이어그램은 복제본 세트 투표 프로세스 나타냅니다.

가장 중요한 애플리케이션의 가용성을 향상시키기 위해 각각 구역 , 리전 또는 제공자 중단을 견딜 수 있도록 노드, 리전 또는 cloud 제공자를 추가하여 배포서버 확장하다 할 수 있습니다. 자세히 학습 아래의 내결함성(Fault Tolerance)을 위한 배포 패러다임 확장 권장 사항을 참조하세요.
Atlas 고가용성 권장 사항
다음 권장 사항에서는 배포서버 의 가용성을 높이기 위해 수행할 수 있는 추가 구성 옵션 및 배포서버 아키텍처 개선 사항에 대해 설명합니다.
배포 목표에 맞는 클러스터 계층 선택
새 클러스터 만들 때 Dedicated, Flex 또는 무료 배포서버 유형에서 사용할 수 있는 범위 클러스터 계층 중에서 선택할 수 있습니다. MongoDB Atlas 의 클러스터 계층 클러스터 의 각 노드 에 사용할 수 있는 리소스(메모리, 저장 , vCPU, IOPS)를 지정합니다. 상위 계층 으로 확장하면 클러스터가 트래픽 급증을 처리하다 기능 향상되고 높은 워크로드에 더 빠르게 응답하여 시스템 안정성이 향상됩니다. 애플리케이션 크기에 권장되는 클러스터 계층 결정하려면 Atlas 클러스터 크기 가이드를 참조하세요.
또한 Atlas 자동 확장 지원하여 클러스터 수요 급증에 자동으로 조정할 수 있도록 합니다. 이 조치 자동화하면 리소스 제약으로 인한 중단 위험이 줄어듭니다.자세한 학습 은 Atlas 자동 인프라 프로비저닝 지침을 참조하세요.
내결함성을 위한 배포 패러다임 확장
Atlas 배포서버 의 내결함성은 배포서버 계속 작동하는 동안 사용할 수 없게 될 수 있는 복제본 세트 멤버의 수로 측정할 수 있습니다. 가용영역, 리전 또는 cloud 제공자 가 중단되는 이벤트 , Atlas 클러스터는 복제본 세트 투표 에서 기존 세컨더리 노드 프라이머리 노드 역할 로 승격하여 자가 복구됩니다. 프라이머리 머리 노드 중단될 때 복제본 세트 투표 실행 하려면 복제본 세트 에 있는 투표 노드의 과반수가 작동 가능해야 합니다.
부분 리전 중단 시 복제본 세트 프라이머리 선택할 수 있도록 하려면 가용영역이 3개 이상 있는 리전에 클러스터를 배포 해야 합니다. 가용영역은 단일 cloud 제공자 리전 내에서 분리된 데이터 센터 그룹으로, 각 리전은 자체 전력, 냉각 및 네트워킹 인프라를 갖추고 있습니다. Atlas 선택한 cloud 제공자 리전 에서 클러스터 자동으로 분산하므로, 한 구역 에 중단이 발생하더라도 클러스터 의 나머지 노드는 리전 서비스를 계속 지원 . 대부분의 Atlas 지원 cloud 제공자 리전에는 가용영역이 3개 이상 있습니다. 이러한 리전은 Atlas UI 에서 별표 아이콘으로 표시됩니다. 권장 리전에 대한 자세한 내용은 클라우드 제공자 및 리전을 참조하세요.
가장 중요한 애플리케이션의 내결함성을 더욱 향상하려면 각각 가용영역, 리전 또는 제공자 중단을 견딜 수 있도록 노드, 리전 또는 cloud 제공자를 추가하여 배포서버 확장하다 할 수 있습니다. 선택 가능한 최대 노드 수는 7 개, 총 노드 수는 50 개인 홀수 노드까지 노드 수를 늘릴 수 있습니다. 또한 클러스터 여러 리전에 배포 더 넓은 지역의 가용성을 향상시키고, 전체 리전 중단으로 인해 프라이머리 머리 리전 내의 모든 가용영역이 비활성화되는 경우 자동 페일오버 활성화 수 있습니다. 완전한 cloud 제공자 중단을 견디기 위해 클러스터 여러 cloud 제공자에 배포할 때도 동일한 패턴 적용됩니다.
고가용성, 짧은 지연 시간, 컴플라이언스, 비용 에 대한 요구 사항의 균형을 맞추는 배포서버 선택하는 방법에 대한 지침 Atlas 배포 패러다임 문서를 참조하세요.
실수로 인한 클러스터 삭제 방지
종료 방지 기능을 활성화 클러스터 실수로 종료되거나 백업 에서 복원 데 다운타임이 발생하지 않도록 할 수 있습니다. 종료 방지 기능이 활성화된 클러스터 삭제 하려면 먼저 종료 방지 기능을 비활성화해야 합니다. 기본값 으로 Atlas 모든 클러스터에 대해 종료 방지 기능을 비활성화합니다.
Terraform과 같은 IaC 도구를 활용하여 재배포로 인해 새 인프라가 프로비저닝되지 않도록 할 때는 종료 방지 기능을 활성화하는 것이 특히 중요합니다.
자동 페일오버 테스트
애플리케이션 프로덕션 환경에 배포 전에 자동 노드 페일오버가 필요한 다양한 시나리오를 시뮬레이션하여 이러한 이벤트에 대한 대비를 측정할 것을 적극 권장합니다. Atlas 사용하면 복제본 세트 에 대한 프라이머리 노드 페일오버 테스트하고 멀티 리전 배포서버 위한 리전 중단을 시뮬레이션할 수 있습니다.
majority
쓰기 고려 사용
MongoDB 쓰기 고려 (write concern) 사용하여 쓰기 (write) 작업에 요청된 승인 수준을 지정할 수 있습니다. Atlas 의 기본값 쓰기 고려 (write concern) majority
이며, 이는 Atlas 성공 보고하기 전에 클러스터 내 절반 이상의 노드에 데이터가 복제되어야 함을 의미합니다. 와(과) majority
같이 정해진 숫자 값 대신 2
을(를) 사용하면 일시적인 노드 중단이 발생할 경우 Atlas 더 적은 수의 노드에 걸쳐 복제 요구하도록 자동으로 조정하여 자동 페일오버 후에도 쓰기를 계속할 수 있습니다. 또한 모든 환경에서 일관적인 설정을 제공하므로 테스트 환경에 3개의 노드가 있든 프로덕션에 더 많은 수의 노드가 있든 연결 문자열 동일하게 유지됩니다.
재시도 가능 데이터베이스 읽기 및 쓰기 구성
Atlas 재시도 가능 읽기 및 재시도 가능 쓰기 (write) 작업을 지원합니다. 활성화되면 Atlas 애플리케이션 일시적으로 정상 프라이머리 노드 찾을 수 없는 간헐적인 네트워크 중단 및 복제본 세트 투표를 방지하기 위해 읽기 및 쓰기 (write) 작업을 한 번 재시도합니다. 재시도 가능 쓰기에는 승인된 쓰기 고려 (write concern) 가 필요하며, 이는 쓰기 고려 (write concern) 일 수 없음을 {w:
0}
의미합니다.
리소스 사용률 모니터링 및 계획
리소스 용량 문제를 방지하려면 리소스 사용률을 모니터 하고 정기적으로 용량 계획 세션을 진행하는 것이 좋습니다. MongoDB의 전문 서비스에서 이러한 세션을 제공합니다. 리소스 용량 문제를 복구하는 방법에 대한 권장 사항은 리소스 용량 재해 복구 계획을 참조하세요.
리소스 사용률에 대한 경고 및 모니터링 모범 사례는 Atlas 모니터링 및 경고 지침을 참조하세요.
MongoDB 버전 변경 계획
새로운 기능과 향상된 보안 보장 활용하려면 최신 MongoDB 버전을 실행 것이 좋습니다. 현재 버전의 수명이 다하기 전에 항상 최신 MongoDB 메이저 버전으로 업그레이드 해야 합니다.
Atlas UI 사용하여 MongoDB 버전을 다운그레이드할 수 없습니다. 따라서 주요 버전 업그레이드 계획하고 실행할 때 MongoDB의 전문 서비스 또는 기술 서비스와 직접 협력하여 업그레이드 프로세스 중에 발생할 수 있는 문제를 방지할 것을 권장합니다.
유지 관리 기간 구성
Atlas 예정된 유지 관리 중에 한 번에 한 노드 에 업데이트를 롤링 방식으로 적용하여 가동 시간을 유지합니다. 이 프로세스 중에 유지 관리를 위해 현재 프라이머리 오프라인 상태가 될 때마다 Atlas 자동 복제본 세트 투표 통해 새 프라이머리 선택합니다. 이는 계획되지 않은 프라이머리 노드 중단에 대한 대응으로 자동 페일오버 중에 발생하는 프로세스 와 동일합니다.
비즈니스에 중요한 시간 동안 유지 관리 관련 복제본 세트 투표를 방지하려면 프로젝트 에 대한 사용자 지정 유지 관리 기간 구성하는 것이 좋습니다. 유지 관리 기간 설정에서 보호된 시간을 설정하다 표준 업데이트를 시작할 수 없는 일일 창 정의할 수도 있습니다. 표준 업데이트에는 클러스터 다시 시작 또는 재동기화가 포함되지 않습니다.
자동화 예시: Atlas 고가용성
다음 예제에서는 자동화3 위한 Atlas 도구를 사용하여 단일 리전, 노드 복제본 세트/샤드 배포서버 토폴로지 구성합니다.
이러한 예시는 다음을 포함한 다른 권장 구성에도 적용됩니다.
개발/테스트 환경을 위해 클러스터 계층을
M10
으로 설정합니다. 애플리케이션 크기에 맞는 권장 클러스터 계층을 알아보려면 클러스터 크기 가이드를 참조하세요.단일 리전, 3-노드 복제본 세트/샤드 배포 토폴로지
당사의 예시는 AWS, Azure 및 Google Cloud를 상호 교체하여 사용합니다. 세 곳의 클라우드 공급자 중 어느 곳이든 사용할 수 있지만 클라우드 공급자에 맞게 지역 이름을 변경해야 합니다. 클라우드 공급자와 그 지역에 대해 알아보려면 클라우드 공급자를 참조하세요.
중간 규모 애플리케이션을 위해 클러스터 계층을
M30
으로 설정합니다. 애플리케이션 크기에 맞는 권장 클러스터 계층을 알아보려면 클러스터 크기 가이드를 참조하세요.단일 리전, 3-노드 복제본 세트/샤드 배포 토폴로지
당사의 예시는 AWS, Azure 및 Google Cloud를 상호 교체하여 사용합니다. 세 곳의 클라우드 공급자 중 어느 곳이든 사용할 수 있지만 클라우드 공급자에 맞게 지역 이름을 변경해야 합니다. 클라우드 공급자와 그 지역에 대해 알아보려면 클라우드 공급자를 참조하세요.
참고
Atlas CLI로 리소스를 생성하기 전에 다음을 수행해야 합니다.
Programmatic Use의 단계에 따라 Atlas CLI에서 연결합니다.
프로젝트당 하나의 배포 생성
개발 및 테스트 환경의 경우 각 프로젝트 에 대해 다음 명령을 실행 . 값을 사용하도록 ID와 이름을 변경합니다.
atlas clusters create CustomerPortalDev \ --projectId 56fd11f25f23b33ef4c2a331 \ --region EASTERN_US \ --members 3 \ --tier M10 \ --provider GCP \ --mdbVersion 8.0 \ --diskSizeGB 30 \ --tag bu=ConsumerProducts \ --tag teamName=TeamA \ --tag appName=ProductManagementApp \ --tag env=Production \ --tag version=8.0 \ --tag email=marissa@acme.com \ --watch
스테이징 및 프로덕션 환경의 경우 각 프로젝트에 대해 다음 cluster.json
파일을 생성합니다. ID와 이름을 사용자의 값으로 변경하세요.
{ "clusterType": "REPLICASET", "links": [], "name": "CustomerPortalProd", "mongoDBMajorVersion": "8.0", "replicationSpecs": [ { "numShards": 1, "regionConfigs": [ { "electableSpecs": { "instanceSize": "M30", "nodeCount": 3 }, "priority": 7, "providerName": "GCP", "regionName": "EASTERN_US", "analyticsSpecs": { "nodeCount": 0, "instanceSize": "M30" }, "autoScaling": { "compute": { "enabled": false, "scaleDownEnabled": false }, "diskGB": { "enabled": false } }, "readOnlySpecs": { "nodeCount": 0, "instanceSize": "M30" } } ], "zoneName": "Zone 1" } ], "tag" : [{ "bu": "ConsumerProducts", "teamName": "TeamA", "appName": "ProductManagementApp", "env": "Production", "version": "8.0", "email": "marissa@acme.com" }] }
cluster.json
파일을 생성한 후 각 프로젝트에 대해 다음 명령을 실행합니다. 이 명령은 cluster.json
파일을 사용하여 클러스터를 생성합니다.
atlas cluster create --projectId 5e2211c17a3e5a48f5497de3 --file cluster.json
이 예시 에 대한 자세한 구성 옵션 및 정보는 Atlas clusters create 명령을 참조하세요.
참고
프로젝트 및 배포 생성
개발 및 테스트 환경의 경우 각 애플리케이션 및 환경 쌍에 대해 다음 파일을 생성합니다. 각 애플리케이션 및 환경 쌍에 대한 파일을 자체 디렉토리 에 배치합니다. 값을 사용하도록 ID와 이름을 변경합니다.
main.tf
# Create a Project resource "mongodbatlas_project" "atlas-project" { org_id = var.atlas_org_id name = var.atlas_project_name } # Create an Atlas Advanced Cluster resource "mongodbatlas_advanced_cluster" "atlas-cluster" { project_id = mongodbatlas_project.atlas-project.id name = "ClusterPortalDev" cluster_type = "REPLICASET" mongo_db_major_version = var.mongodb_version replication_specs { region_configs { electable_specs { instance_size = var.cluster_instance_size_name node_count = 3 } priority = 7 provider_name = var.cloud_provider region_name = var.atlas_region } } tags { key = "BU" value = "ConsumerProducts" } tags { key = "TeamName" value = "TeamA" } tags { key = "AppName" value = "ProductManagementApp" } tags { key = "Env" value = "Test" } tags { key = "Version" value = "8.0" } tags { key = "Email" value = "marissa@acme.com" } } # Outputs to Display output "atlas_cluster_connection_string" { value = mongodbatlas_advanced_cluster.atlas-cluster.connection_strings.0.standard_srv } output "project_name" { value = mongodbatlas_project.atlas-project.name }
참고
멀티 리전 클러스터 만들려면 자체 region_configs
객체 에 각 리전 지정하고 replication_specs
객체 에 중첩합니다. priority
필드는 내림차순으로 정의해야 하며 다음 예시 와 같이 7
~ 1
사이의 값으로 구성되어야 합니다.
replication_specs { region_configs { electable_specs { instance_size = "M10" node_count = 2 } provider_name = "GCP" priority = 7 region_name = "NORTH_AMERICA_NORTHEAST_1" } region_configs { electable_specs { instance_size = "M10" node_count = 3 } provider_name = "GCP" priority = 6 region_name = "WESTERN_US" } }
variables.tf
# Atlas Organization ID variable "atlas_org_id" { type = string description = "Atlas Organization ID" } # Atlas Project Name variable "atlas_project_name" { type = string description = "Atlas Project Name" } # Atlas Project Environment variable "environment" { type = string description = "The environment to be built" } # Cluster Instance Size Name variable "cluster_instance_size_name" { type = string description = "Cluster instance size name" } # Cloud Provider to Host Atlas Cluster variable "cloud_provider" { type = string description = "AWS or GCP or Azure" } # Atlas Region variable "atlas_region" { type = string description = "Atlas region where resources will be created" } # MongoDB Version variable "mongodb_version" { type = string description = "MongoDB Version" } # Atlas Group Name variable "atlas_group_name" { type = string description = "Atlas Group Name" }
terraform.tfvars
atlas_org_id = "32b6e34b3d91647abb20e7b8" atlas_project_name = "Customer Portal - Dev" environment = "dev" cluster_instance_size_name = "M10" cloud_provider = "AWS" atlas_region = "US_WEST_2" mongodb_version = "8.0"
provider.tf
# Define the MongoDB Atlas Provider terraform { required_providers { mongodbatlas = { source = "mongodb/mongodbatlas" } } required_version = ">= 0.13" }
파일을 생성한 후 각 애플리케이션과 환경 쌍의 디렉토리로 이동하여 다음 명령을 실행하여 Terraform을 초기화합니다.
terraform init
Terraform 계획을 보려면 다음 명령을 실행합니다.
terraform plan
애플리케이션 및 환경 쌍에 대해 하나의 프로젝트와 하나의 배포를 생성하려면 다음 명령을 실행합니다. 명령은 파일과 MongoDB & HashiCorp Terraform을 사용하여 프로젝트와 클러스터를 생성합니다.
terraform apply
메시지가 표시되면 yes
를 입력하고 Enter
키를 눌러 구성을 적용합니다.
스테이징 및 프로덕션 환경의 경우 각 애플리케이션과 환경 쌍에 대해 다음 파일을 생성하세요. 각 애플리케이션과 환경 쌍의 파일은 별도의 디렉토리에 배치하세요. ID와 이름을 사용자의 값으로 변경하세요.
main.tf
# Create a Group to Assign to Project resource "mongodbatlas_team" "project_group" { org_id = var.atlas_org_id name = var.atlas_group_name usernames = [ "user1@example.com", "user2@example.com" ] } # Create a Project resource "mongodbatlas_project" "atlas-project" { org_id = var.atlas_org_id name = var.atlas_project_name # Assign the Project the Group with Specific Roles teams { team_id = mongodbatlas_team.project_group.team_id role_names = ["GROUP_READ_ONLY", "GROUP_CLUSTER_MANAGER"] } } # Create an Atlas Advanced Cluster resource "mongodbatlas_advanced_cluster" "atlas-cluster" { project_id = mongodbatlas_project.atlas-project.id name = "ClusterPortalProd" cluster_type = "REPLICASET" mongo_db_major_version = var.mongodb_version replication_specs { region_configs { electable_specs { instance_size = var.cluster_instance_size_name node_count = 3 } priority = 7 provider_name = var.cloud_provider region_name = var.atlas_region } } tags { key = "BU" value = "ConsumerProducts" } tags { key = "TeamName" value = "TeamA" } tags { key = "AppName" value = "ProductManagementApp" } tags { key = "Env" value = "Production" } tags { key = "Version" value = "8.0" } tags { key = "Email" value = "marissa@acme.com" } } # Outputs to Display output "atlas_cluster_connection_string" { value = mongodbatlas_advanced_cluster.atlas-cluster.connection_strings.0.standard_srv } output "project_name" { value = mongodbatlas_project.atlas-project.name }
참고
멀티 리전 클러스터 만들려면 다음 예시 와 같이 자체 region_configs
객체 에 각 리전 지정하고 replication_specs
객체 에 중첩합니다.
replication_specs { region_configs { electable_specs { instance_size = "M10" node_count = 2 } provider_name = "GCP" priority = 7 region_name = "NORTH_AMERICA_NORTHEAST_1" } region_configs { electable_specs { instance_size = "M10" node_count = 3 } provider_name = "GCP" priority = 6 region_name = "WESTERN_US" } }
variables.tf
# Atlas Organization ID variable "atlas_org_id" { type = string description = "Atlas Organization ID" } # Atlas Project Name variable "atlas_project_name" { type = string description = "Atlas Project Name" } # Atlas Project Environment variable "environment" { type = string description = "The environment to be built" } # Cluster Instance Size Name variable "cluster_instance_size_name" { type = string description = "Cluster instance size name" } # Cloud Provider to Host Atlas Cluster variable "cloud_provider" { type = string description = "AWS or GCP or Azure" } # Atlas Region variable "atlas_region" { type = string description = "Atlas region where resources will be created" } # MongoDB Version variable "mongodb_version" { type = string description = "MongoDB Version" } # Atlas Group Name variable "atlas_group_name" { type = string description = "Atlas Group Name" }
terraform.tfvars
atlas_org_id = "32b6e34b3d91647abb20e7b8" atlas_project_name = "Customer Portal - Prod" environment = "prod" cluster_instance_size_name = "M30" cloud_provider = "AWS" atlas_region = "US_WEST_2" mongodb_version = "8.0" atlas_group_name = "Atlas Group"
provider.tf
# Define the MongoDB Atlas Provider terraform { required_providers { mongodbatlas = { source = "mongodb/mongodbatlas" } } required_version = ">= 0.13" }
파일을 생성한 후 각 애플리케이션과 환경 쌍의 디렉토리로 이동하여 다음 명령을 실행하여 Terraform을 초기화합니다.
terraform init
Terraform 계획을 보려면 다음 명령을 실행합니다.
terraform plan
애플리케이션 및 환경 쌍에 대해 하나의 프로젝트와 하나의 배포를 생성하려면 다음 명령을 실행합니다. 명령은 파일과 MongoDB & HashiCorp Terraform을 사용하여 프로젝트와 클러스터를 생성합니다.
terraform apply
메시지가 표시되면 yes
를 입력하고 Enter
키를 눌러 구성을 적용합니다.
이 예제에 대한 추가 구성 옵션과 정보는 MongoDB & HashiCorp Terraform 및 MongoDB Terraform 블로그 게시물을 참조하세요.