스트리밍 데이터를 위한 데이터 모델 구축
스트리밍 데이터로 작업할 때 스키마 관리는 데이터 정확성과 개발자 생산성에 매우 중요합니다. document model은 개발자에게 실시간 데이터를 사용하여 앱을 구축할 수 있는 유연하고 자연스러운 데이터 모델을 제공합니다.
통합된 개발자 경험
개발자는 API, 쿼리 언어, 데이터 모델 전반에 걸쳐 단일 플랫폼을 사용하여, 데이터베이스에 저장된 중요한 애플리케이션 데이터와 함께 Apache Kafka에서 스트리밍되는 데이터를 지속적으로 처리할 수 있습니다.
Atlas 기반 완전 관리형
몇 줄의 코드만으로 개발자는 Apache Kafka의 스트리밍 데이터를 데이터베이스와 빠르게 통합하여 반응형 및 응답형 애플리케이션을 구축할 수 있으며, 이 모든 것은 Atlas로 완벽하게 관리됩니다.
Apache Kafka 데이터 스트림과 통합하기
Acoustic 엔지니어링 담당 부사장
Acoustic 엔지니어링 담당 부사장
Meltwater 소프트웨어 엔지니어
학습 센터
스트리밍 데이터를 처리하는 방법에 대한 백서, 튜토리얼, 동영상을 찾아보세요.FAQ
스트리밍 데이터는 다양한 소스에서 지속적으로 생성됩니다. IoT 센서, 마이크로서비스, 모바일 디바이스는 모두 대용량 데이터 스트림의 일반적인 소스입니다. 스트리밍 데이터의 연속적인 특성과 불변성으로 인해 데이터베이스에 저장된 정적 데이터와 구별됩니다.
스트리밍 데이터는 이벤트 스트리밍 플랫폼(예: Apache Kafka) 내부에 있으며 이러한 시스템은 본질적으로 변경할 수 없는 분산 로그입니다. 이벤트 데이터는 API를 사용하여 이벤트 스트리밍 플랫폼에서 게시되고 사용됩니다.
개발자는 스트림 프로세서를 사용하여 상태 저장 집계, 창 작업, 변형 및 구체화된 뷰 만들기와 같은 고급 처리를 수행해야 합니다. 이는 데이터베이스에서 쿼리를 실행할 때 수행하는 작업과 유사하지만 스트림 처리가 끝없는 데이터 스트림을 지속적으로 쿼리한다는 점이 다릅니다. 이 스트리밍 분야에서는 Apache Flink와 Spark Streaming과 같은 솔루션이 빠르게 주목을 받고 있는 신흥 기술입니다.
Atlas Stream Processing을 통해 MongoDB는 개발자에게 집계 프레임워크를 활용하는 동시에, 애플리케이션에서 사용할 스트림을 처리하는 더 나은 방법을 제공합니다.
- Kafka 및 MongoDB를 손쉽게 통합
- 데이터를 지속적으로 처리
- 네이티브 MongoDB 경험
- 전 세계에서 이용 가능