Join us at MongoDB.local London on 7 May to unlock new possibilities for your data. Use WEB50 to save 50%.
Register now >
Docs 菜单
Docs 主页
/ /

Atlas Stream Processing 更改日志

  • 新增对 Google Cloud Pub/Sub 作为接收器的支持。要学习;了解详情,请参阅 Google Cloud Pub/Sub 连接。

  • 添加了对使用JSON编辑器用户用户界面页面上的新 Upload file 按钮直接从本地 .json 文件上传处理器定义的支持。

  • 添加对 Azure Blob 存储作为接收器的支持。要学习;了解详情,请参阅Azure Blob 存储($emit 阶段)和Azure Blob 存储连接。

  • TEST将 Sample、 Apache Kafka 和Atlas连接的测试图标替换为带标签的 按钮。

  • 阻止删除流处理器仍然引用的集群。

  • 允许在连接注册表中在 PLAINOIDC 之间更改Apache Kafka连接身份身份验证。

  • Apache Kafka引导服务器主机名添加额外验证。

  • 默认启用项目级数据流Atlas 审核,并从Atlas 用户界面 的Database & Network Access > Security > Advanced 页面中删除 Streams Auditing 开关。Atlas 审核日志现在始终在线且不可删除,以满足安全性和合规预期。要学习有关Atlas Stream Processing Atlas 审核的更多信息,请参阅Atlas Stream Processing访问和Atlas 审核。

  • 在连接注册表中查看连接时,向Atlas用户界面添加实时状态(ReadyPendingFailedDeleting)。

  • 当您在Atlas用户界面中创建流处理器时,添加对 AWS Kinesis连接作为源和接收器选项的支持。

  • 在Atlas Administration API中添加对下载单个Atlas Stream Processing工作区的操作日志终结点的支持,以下载Atlas Stream Processing工作区或流处理器的操作日志。

  • 修复了当根本的Atlas 集群仍在预配过早地将流连接标记为 Ready 的问题。

  • 修复了无法对角色分配执行 modifyStreamProcessor操作的问题。

  • 改进了启动、停止和删除流处理器操作的错误处理。

  • 改进了对Azure事件中心连接的验证,以确保仅接受有效的命名空间 ARM URI。

  • 用Atlas Stream Processing Workspaces替换上一个实例模型。要学习;了解更多信息,请参阅流处理层。

  • 添加新的流处理器层级:SP2SP5SP50

  • 添加对具有适用于Apache Kafka连接的 JWT 身份验证的 OIDC 的支持。

  • 新增对 AWS S3 私有链接连接类型的支持。

  • 在连接注册表用户用户界面中添加 Test Connection 按钮,为每个连接启动连接测试。

  • tenant_nameproject_nameorg_name 字段添加到Atlas Stream Processing指标中,包括导出到 DataDog 的指标。

  • lifetime cache hit/miss 统计信息添加到 stats.operatorStats$cachedLookup 阶段。

  • 在 Atlas DataDog 集成中添加对 Stream Processor State 指标的支持。

  • 添加 $function操作符,允许在流处理管道中执行JavaScript 。 要学习;了解详情,请参阅 $function(流处理)。

  • 添加 $cachedLookup 操作符,允许将 $lookup 结果缓存到特定的 TTL 中,以提高缓慢变化数据的性能。要了解更多信息,请参阅 $cachedLookup

  • 添加了 $emit 阶段将 null 值发送到 Kafka 主题的能力,以支持使用 $emit.config.tombstoneWhen = boolean 对 Kafka 主题进行压缩。要了解更多信息,请参阅$emit聚合阶段 (Stream Processing)。

  • 添加对 $source 的支持,以在读取Atlas集合时支持初始同步。要学习;了解更多信息,请参阅MongoDB集合变更流。

  • 添加对 $merge 的支持,以便能够删除集合中的文档。要学习;了解更多信息,请参阅 $merge(流处理)。

  • 新增对 DataDog Metrics 的支持。 要学习;了解更多信息,请参阅 DataDog 指标。

  • 增加了对 AWS S3 连接的支持。

  • 添加新的 $externalFunction Atlas Stream Processing管道阶段,用于触发特定Amazon Web Services Lambda资源中的进程。要学习;了解更多信息,请参阅 $externalFunction.

  • 支持在Atlas用户界面中创建 $https 连接

  • parallelism字段添加到 $merge 。该字段指定要向其分发写入操作的线程数,从而提高性能。

  • 允许您创建其他警报:输出消息计数、DLQ 消息计数、 Kafka延迟和变更流延迟。要学习;了解更多信息,请参阅Atlas Stream Processing警报。

  • 支持流处理器中不带参数并返回 UUID BSON 类型值的 createUUID 表达式。

  • 为窗口操作符添加新配置,以支持除 eventTime 之外的 processingTime。要学习;了解详情,请参阅处理时间。

  • 添加$meta表达式,该表达式返回一个包含文档的所有流媒体元数据的对象。

  • parseJsonStrings字段添加到 $https操作符,使其能够解析从API调用返回的JSON字符串。要学习;了解更多信息,请参阅 $https.

  • 支持 $currentDate 表达式,每次 Atlas Stream Processing 评估时返回您的 Stream Processing 工作区的系统时间。

  • 支持读取包含嵌入文件签名(magic bytes)的 JSON 文档。

  • 修复了阻止配置 hopSize 大于 interval 的跳转Windows的问题。

  • 支持在 Amazon Web Services 上使用 Confluent 进行 VPC 对等互连。

  • 支持使用 Atlas Administration API 来编辑流处理器。

  • 支持 AWS PrivateLink 与 Confluent 的集成。

  • 支持附带 EventHub 的 Azure Private Link。

  • 将“Apache Kafka 超时时间”从 10 秒增加到 30 秒。

  • 当目标集群处于 REPAIRING 状态时,始终重试处理器。

  • 修复了恢复检查点后的 partitionIdleTimeout 问题。

  • 在详细统计信息中添加更多水印和窗口信息。

  • 确保发送到Apache Kafka的生产消息调用不会无限期挂起,即使生产者队列已满。

  • 支持使用 $convertBinary 数据转换为各种数据类型。这让您能够根据需要将 Kafka 标头转换为特定的数据类型。

  • 使用Apache Kafka 作为源的流处理器会在sp.processor.stats().中公开每个分区的水印。

  • 修复了用户无法通过 API 在某些区域创建 Stream Processing 实例的错误。

在此页面上