Atlas Stream Processing 现已推出公共预览版!了解详情Atlas Stream Processing 现已推出公共预览版!了解详情

ATLAS(预览版)

Atlas Stream Processing。统一动态数据和静态数据

通过熟悉的开发人员体验来持续处理数据流,从而改变事件驱动型应用程序的构建方式。
浏览教程
Atlas Stream Processing 图解
3 分钟了解 Atlas Stream Processing
了解 Atlas Stream Processing 如何将文档模型、灵活的模式和丰富的聚合框架结合起来,在构建需要大规模处理复杂事件数据的应用程序时提供强大的功能和便利。观看视频
表示 Atlas Stream Processing 的管道示意图。

前所未有的流处理

处理流数据时,模式管理对数据正确性和开发人员的工作效率至关重要。MongoDB 的文档模型和聚合框架为开发人员提供了强大的功能,提高了他们的工作效率,这在流处理领域的其他地方是找不到的。
形状和数据图表进入绿色方框的示意图。

统一动态数据和静态数据

开发人员首次可以使用一个平台(跨 API、查询语言和数据模型)来持续处理流数据,以及存储在数据库中的关键应用程序数据。
数据库、接口和数据存储桶示意图。

在 Atlas 中完全托管

Atlas Stream Processing 基于我们稳健的集成开发人员数据平台。只需调用几个 API 和编写几行代码,开发人员就能建立流处理器、数据库和 API 服务层,所有这些都在 Atlas 上完全托管。

Atlas Stream Processing

如何统一处理动态数据和静态数据的体验?
Atlas Stream Processing diagram

功能
misc_grow

持续处理

建立聚合管道,不断查询、分析和响应流数据,而不会出现批处理固有的延迟。

general_features_complexity

持续验证

执行持续模式验证,以检查事件在处理前是否正确形成,检测消息损坏,并检测错过处理窗口期的迟到数据。

general_features_build_faster

持续合并

将视图持续物化到 Atlas 数据库集合或 Apache Kafka 等流处理系统中,以保持数据的最新分析视图,为决策制定和行动提供支持。

持续见解
“Acoustic 的重点是通过行为见解为品牌赋能,使其能够创造卓越的个性化客户体验。通过 Atlas Stream Processing,我们的工程师就可以利用他们在 Atlas 中处理数据时已经掌握的技能来持续处理新数据,确保我们的客户能够获得实时的客户见解。”
John Riewerts
Acoustic 工程执行副总裁
双手在笔记本电脑上打字。
事件驱动型应用程序
铺设通往响应式和反应性实时业务的路径下载白皮书

体验 Atlas Stream Processing 的简易性和强大功能

使用 Atlas Stream Processing 轻松处理和验证复杂事件数据,将其合并以便在需要的地方准确使用。
查看文档
查询 Apache Kafka 数据流
Atlas Stream Processing 使从 Apache Kafka 查询数据变得像查询 MongoDB 一样简单。只需定义源、所需的聚合阶段和汇,就能快速处理 Apache Kafka 数据流。
具有窗口功能的高级分析
Atlas Stream Processing 中的窗口操作符允许您分析和处理连续数据流中固定大小的特定数据窗口,从而轻松发现模式和趋势。
复杂事件的模式验证
连续验证对于确保事件在处理前正确形成、检测消息损坏以及判断迟到数据是否错过处理窗口期至关重要。
查询 Apache Kafka 数据流
Atlas Stream Processing 使从 Apache Kafka 查询数据变得像查询 MongoDB 一样简单。只需定义源、所需的聚合阶段和汇,就能快速处理 Apache Kafka 数据流。
MongoDB 查询 API
具有窗口功能的高级分析
Atlas Stream Processing 中的窗口操作符允许您分析和处理连续数据流中固定大小的特定数据窗口,从而轻松发现模式和趋势。
MongoDB 查询 API
复杂事件的模式验证
连续验证对于确保事件在处理前正确形成、检测消息损坏以及判断迟到数据是否错过处理窗口期至关重要。
MongoDB 查询 API
MongoDB 查询 API

充分利用 Atlas

利用我们应用程序数据平台的其他功能,提供更多的数据驱动体验和见解。
atlas_database

数据库

从多云数据库服务入手,满足对弹性、规模以及数据隐私和安全性的高要求。

atlas_triggers

触发器

自动运行代码以响应数据库变更、用户事件或预设时间间隔。

connectors_kafka

Kafka 连接器

将 MongoDB 数据原生集成到 Kafka 生态系统中。


常见问答

想进一步了解流处理吗?
查看更多资源
什么是流数据?
各种来源不断生成流数据。物联网传感器、微服务和移动设备都是大量数据流的常见来源。流数据的连续性和不可变性使其与静态数据在数据库中的存储状态不同。
什么是流处理?
流处理不断从事件消息平台(如 Apache Kafka)摄取和转换事件数据,以执行各种功能。也就是说,创建简单的筛选器来删除不需要的数据,根据需要执行聚合来计数或汇总数据,创建有状态的窗口等等。在事件驱动型应用程序中,流处理可以成为差异化特性,从而实现反应更快、响应更迅速的客户体验。
事件流与流处理有何不同?

流数据存在于事件流平台(如 Apache Kafka)中,这些系统本质上是不可变的分布式日志。事件流平台使用 API 发布和消费事件数据。

开发人员需要使用流处理器来执行更高级的处理,例如有状态的聚合、窗口操作、突变以及创建物化视图。这些操作与在数据库上运行查询时执行的操作类似,只不过流处理是对无穷无尽的数据流进行连续查询。流处理的这一领域相对较新;不过,Apache Flink 和 Spark Streaming 等技术正在迅速得到推广。

借助 Atlas Stream Processing,MongoDB 为开发人员提供了一种更好的方法,利用聚合框架在应用程序中处理流。

MongoDB 为什么要构建 Atlas Stream Processing?
流处理是构建响应式、事件驱动型应用日益重要的组件。通过在 Atlas 中添加流处理功能作为原生功能,我们将帮助更多开发人员利用我们的多云开发人员数据平台 MongoDB Atlas 构建创新应用程序。
如何开始使用 Atlas Stream Processing 公共预览版?
Atlas Stream Processing 现已面向所有 Atlas 用户开放使用。只需登录并单击“流处理”选项卡即可开始使用。
流处理与批量处理有何不同?

流处理是持续发生的。在构建事件驱动型应用程序的背景下,流处理可实现卓越的反应式体验,如实时通知、个性化、路线规划或预测性维护。

批量处理不适用于持续生成的数据。相反,批量处理的处理方式是在指定时间内收集数据,然后根据需要处理这些静态数据。批量处理的一个示例是,零售企业在每天营业结束时收集销售数据,用于报告和/或更新库存水平。

立即开始使用 Atlas

Atlas Stream Processing 现已推出公共预览版。
登录
表示 Atlas Stream Processing 的管道示意图。