EVENTAtlas Stream Processing의 공개 미리보기 버전이 출시되었습니다! 자세히 알아보세요.

ATLAS (미리보기)

Atlas Stream Processing. 이동 중인 데이터와 미사용 데이터를 통합합니다.

익숙한 개발자 경험을 통해 데이터 스트림을 지속적으로 처리하여 이벤트 기반 애플리케이션 구축을 혁신합니다.
튜토리얼 살펴보기
Atlas Stream Processing 소개 이미지
Atlas Stream Processing 소개 영상 (3분)
Atlas Stream Processing이 문서 모델, 유연한 스키마 및 풍부한 집계 프레임워크를 결합하여 복잡한 이벤트 데이터를 처리해야 하는 애플리케이션을 구축할 때 강력한 성능과 편의성을 제공하는 방법을 알아보세요.동영상 보기
Atlas Stream Processing을 나타내는 파이프라인 그림.

전에 없던 스트림 처리

스트리밍 데이터로 작업할 때 스키마 관리는 데이터 정확성과 개발자 생산성에 매우 중요합니다. MongoDB의 도큐먼트 모델과 집계 프레임워크는 개발자에게 강력한 기능과 생산성 향상을 제공합니다.
녹색 상자 안에 도형과 데이터 차트가 들어 있는 그림.

이동 중인 데이터와 미사용 데이터 통합

개발자는 API, 쿼리 언어 및 데이터 모델 전반에 걸쳐 단일 플랫폼을 사용하여 데이터베이스에 저장된 중요한 애플리케이션 데이터와 함께 스트리밍 데이터를 지속적으로 처리할 수 있습니다.
데이터베이스, 인터페이스 및 데이터 버킷의 그림.

Atlas 기반 완전 관리형

Atlas Stream Processing은 강력하고 통합된 개발자 데이터 플랫폼을 기반으로 합니다. 개발자는 몇 번의 API 호출과 코드 몇 줄만으로 스트림 프로세서, 데이터베이스 및 API 서비스 계층을 구축할 수 있으며, 이 모든 기능은 Atlas에서 완전 관리형으로 제공됩니다.

Atlas Stream Processing

이동 중인 데이터와 미사용 데이터로 작업하는 환경을 어떻게 통합합니까?
Atlas Stream Processing diagram

기능
misc_grow

연속 처리

배치 처리에 내재된 지연 없이 스트리밍 데이터를 지속적으로 쿼리, 분석 및 반응할 수 있는 집계 파이프라인을 구축합니다.

general_features_complexity

지속적인 검증

연속 스키마 유효성 검사를 수행하여 처리하기 전에 이벤트가 제대로 구성되었는지 확인하고, 메시지 손상을 검색하고, 처리 기간을 놓친 늦게 도착하는 데이터를 검색합니다.

general_features_build_faster

연속 병합

뷰를 Atlas 데이터베이스 컬렉션 또는 Apache Kafka와 같은 스트리밍 시스템으로 지속적으로 구체화하여 데이터에 대한 새로운 분석 보기를 유지함으로써 의사 결정 및 조치를 지원합니다.

지속적인 인사이트
“Acoustic의 주요 초점은 브랜드가 매력적이고 개인화된 고객 경험을 만들 수 있도록 행동 인사이트를 제공하는 것입니다. 엔지니어들은 Atlas Stream Processing을 통해 Atlas에서 데이터 작업을 수행하면서 쌓은 기술을 활용하여 새로운 데이터를 지속적으로 처리함으로써 고객이 실시간으로 고객 인사이트를 얻을 수 있도록 지원합니다."
John Riewerts
Acoustic 엔지니어링 담당 부사장
노트북에 타이핑하는 손
이벤트 중심 애플리케이션
반응형 실시간 비즈니스를 실현하는 방법백서 다운로드

Atlas Stream Processing의 간결함과 성능 체험하기

Atlas Stream Processing을 사용하여 복잡한 이벤트 데이터를 쉽게 처리하고 검증하여 필요한 곳에 정확하게 사용할 수 있도록 병합할 수 있습니다.
문서 보기
Apache Kafka 데이터 스트림 쿼리하기
Atlas Stream Processing을 사용하면 Apache Kafka에서 데이터를 쿼리하는 것이 MongoDB를 쿼리하는 것만큼이나 쉬워집니다. 소스, 원하는 집계 단계, 싱크만 정의하면 Apache Kafka 데이터 스트림을 빠르게 처리할 수 있습니다.
윈도우 기능을 통한 고급 분석
Atlas Stream Processing의 창 연산자를 사용하면 연속 데이터 스트림 내에서 특정 크기의 고정된 데이터 창을 분석하고 처리할 수 있으므로 패턴과 추세를 쉽게 발견할 수 있습니다.
복잡한 이벤트의 스키마 유효성 검사
처리 전에 이벤트가 제대로 구성되었는지 확인하고, 메시지 손상을 감지하고, 늦게 도착하는 데이터가 처리 기간을 놓쳤는지 여부를 감지하려면 지속적인 유효성 검사가 필수적입니다.
Apache Kafka 데이터 스트림 쿼리하기
Atlas Stream Processing을 사용하면 Apache Kafka에서 데이터를 쿼리하는 것이 MongoDB를 쿼리하는 것만큼이나 쉬워집니다. 소스, 원하는 집계 단계, 싱크만 정의하면 Apache Kafka 데이터 스트림을 빠르게 처리할 수 있습니다.
MongoDB Query API
윈도우 기능을 통한 고급 분석
Atlas Stream Processing의 창 연산자를 사용하면 연속 데이터 스트림 내에서 특정 크기의 고정된 데이터 창을 분석하고 처리할 수 있으므로 패턴과 추세를 쉽게 발견할 수 있습니다.
MongoDB Query API
복잡한 이벤트의 스키마 유효성 검사
처리 전에 이벤트가 제대로 구성되었는지 확인하고, 메시지 손상을 감지하고, 늦게 도착하는 데이터가 처리 기간을 놓쳤는지 여부를 감지하려면 지속적인 유효성 검사가 필수적입니다.
MongoDB Query API
MongoDB Query API

Atlas 활용 극대화

개발자 데이터 플랫폼을 구성하는 나머지 도구를 사용해 데이터 중심 경험과 인사이트를 강화합니다.
atlas_database

데이터베이스

탄력성과 확장성, 그리고 가장 강력한 데이터 개인정보보호와 보안을 고려해 개발된 멀티 클라우드 데이터베이스 서비스를 시작해보세요.

atlas_triggers

트리거

데이터베이스 변경, 사용자 이벤트, 사전 설정 주기에 따라 함수를 자동으로 실행합니다.

connectors_kafka

Kafka Connector

Kafka 에코시스템 내에서 MongoDB 데이터를 자연스럽게 통합하세요.


FAQ

스트림 처리에 대해 자세히 알고 싶으십니까?
리소스 더 보기
스트리밍 데이터란 무엇입니까?
스트리밍 데이터는 다양한 소스에서 지속적으로 생성됩니다. IoT 센서, 마이크로서비스, 모바일 디바이스는 모두 대용량 데이터 스트림의 일반적인 소스입니다. 스트리밍 데이터의 연속적인 특성과 불변성으로 인해 데이터베이스에 저장된 정적 데이터와 구별됩니다.
스트림 처리란 무엇입니까?
스트림 처리는 이벤트 메시징 플랫폼(예: Apache Kafka)에서 이벤트 데이터를 지속적으로 수집하고 변환하여 다양한 기능을 수행합니다. 여기에는 불필요한 데이터를 제거하는 간단한 필터를 만들고, 필요에 따라 데이터를 계산하거나 합산하는 집계를 수행하고, 스테이트풀 윈도우를 만드는 것이 포함됩니다.스트림 처리는 이벤트 기반 응용 프로그램에서 차별화된 특성이 될 수 있으며, 이를 통해 보다 반응적이고 응답성이 뛰어난 고객 경험을 제공할 수 있습니다.
이벤트 스트리밍은 스트림 처리와 어떻게 다른가요?

스트리밍 데이터는 이벤트 스트리밍 플랫폼(예: Apache Kafka) 내부에 있으며 이러한 시스템은 본질적으로 변경할 수 없는 분산 로그입니다. 이벤트 데이터는 API를 사용하여 이벤트 스트리밍 플랫폼에서 게시되고 사용됩니다.

개발자는 스트림 프로세서를 사용하여 상태 저장 집계, 창 작업, 변형 및 구체화된 뷰 만들기와 같은 고급 처리를 수행해야 합니다. 이는 데이터베이스에서 쿼리를 실행할 때 수행하는 작업과 유사하지만 스트림 처리가 끝없는 데이터 스트림을 지속적으로 쿼리한다는 점이 다릅니다. 이 스트리밍 영역은 더 초기 단계입니다. 그러나 Apache Flink 및 Spark Streaming과 같은 기술이 빠르게 주목을 받고 있습니다.

Atlas Stream Processing을 통해 MongoDB는 개발자에게 집계 프레임워크를 활용하여 애플리케이션에서 사용할 스트림을 처리하는 더 나은 방법을 제공합니다.

MongoDB가 Atlas Stream Processing을 구축한 이유는 무엇입니까?
스트림 처리는 응답성이 뛰어난 이벤트 기반 애플리케이션을 빌드하는 데 있어서 핵심적인 구성 요소입니다. Atlas에 스트림 처리 기능을 기본 기능으로 추가함으로써 더 많은 개발자가 다중 클라우드 개발자 데이터 플랫폼인 MongoDB Atlas를 활용하여 혁신적인 애플리케이션을 구축할 수 있도록 지원할 수 있습니다.
Atlas Stream Processing 공개 미리 보기를 시작하려면 어떻게 해야 하나요?
이제 모든 Atlas 사용자가 Atlas Stream Processing을 사용할 수 있습니다. 로그인하고 Stream Processing 탭을 클릭하기만 하면 됩니다.
스트림 처리는 배치 처리와 어떻게 다른가요?

스트림 처리는 지속적으로 이루어집니다. 이벤트 기반 애플리케이션을 구축할 때 스트림 처리는 실시간 알림, 개인화, 경로 계획 또는 예측 유지 관리와 같은 매력적인 반응형 경험을 가능하게 합니다.

일괄 처리는 지속적으로 생성되는 데이터에는 작동하지 않습니다. 대신 일괄 처리는 지정된 기간 동안 데이터를 수집한 다음 필요에 따라 해당 정적 데이터를 처리하는 방식으로 작동합니다. 일괄 처리의 예로는 보고 목적 및/또는 재고 수준 업데이트를 위해 매일 영업이 종료될 때 매출을 수집하는 소매업을 들 수 있습니다.

지금 Atlas에서 시작하기

이제 Atlas Stream Processing을 공개 미리 보기로 사용할 수 있습니다.
로그인
Atlas Stream Processing을 나타내는 파이프라인 그림.