Esta sección proporciona una comparación de los conjuntos de funcionalidades del Conector Kafka de MongoDB y Atlas Stream Processing para ayudarle a identificar qué herramienta se adapta mejor a su caso de uso.
funcionalidad | Kafka Connector | Atlas Stream Processing |
|---|---|---|
Capacidades de Stream Processing admitidas | Para procesar datos en transmisión gestionados por Kafka Connector, se debe realizar una de las siguientes acciones: - Ampliar el Kafka Connector con SMT o Java personalizados - Utilizar o guardar herramientas externas | Disponible a través del framework de agregación de MongoDB, con extensiones específicas para el stream processing. |
Instalación | Instalación requerida tanto localmente como en Confluent. | No se requiere instalación. |
Herramientas de conectividad | Se requiere el controlador de Java de MongoDB. | Conexión gestionada por Atlas. |
Alojamiento | Hosting necesario para su clúster de Apache Kafka y el Kafka Connector. Utiliza servicios de socios, como Confluent nube, Amazon gestionado transmisión o Redpanda nube, cuando sea posible. | Funcionalidad de procesamiento de flujo totalmente gestionada por Atlas. Requiere alojamiento para su clúster de Apache Kafka. |
Ventanas | No se admite el uso de ventanas. Debe configurarlas manualmente con la API de Kafka Streams u otras herramientas externas. | Soporte para alta capacidad de configuración ventanas. |
Soporte de tipo de conexión |
|
|
Funcionalidades de seguridad |
|
|
Precios | Precios dependientes de tu proveedor de alojamiento. | Precios por hora gestionados por Atlas Stream Processing. El coste típico es aproximadamente el 25% del coste del conector de Kafka. |