BLOGO Atlas Stream Processing está agora em prévia pública! Saiba mais

ATLAS (PRÉVIA)

Atlas Stream Processing. Unifique dados em movimento e dados em repouso.

Transforme a construção de aplicativos orientados a eventos processando continuamente fluxos de dados com uma experiência de desenvolvedor familiar.
Explorar o tutorial
Image explicativa do Atlas Stream Processing
Atlas Stream Processing explicado em 3 minutos
Saiba como o Atlas Stream Processing combina modelo de documento, esquemas flexíveis e a estrutura de agregação avançada para fornecer potência e praticidade criando aplicativos que exigem processamento de dados de eventos complexos em grande volume.Assista ao vídeo
Ilustração de um pipeline representando o Atlas Stream Processing.

Processamento de streaming como nunca antes

No trabalho com dados de streaming, o gerenciamento de esquemas é fundamental para a correção dos dados e a produtividade do desenvolvedor. O modelo de documento do MongoDB e a estrutura de agregação oferecem aos desenvolvedores recursos poderosos e ganhos de produtividade que você não encontrará em nenhum outro lugar no processamento de fluxo.
Ilustração com formas e gráficos de dados indo para uma caixa verde.

Unificando dados em movimento e dados em repouso

Pela primeira vez, os desenvolvedores podem usar uma plataforma – através de API, linguagem de consulta e modelo de dados – para processar continuamente dados de streaming junto com os dados críticos de aplicativos armazenados em seu banco de dados.
Ilustração de um banco de dados, interface e data bucket.

Totalmente gerenciado no Atlas

O Atlas Stream Processing baseia-se em nossa plataforma robusta e integrada de dados de desenvolvedores. Com apenas algumas chamadas de API e linhas de código, um desenvolvedor pode criar um processador de fluxo, um banco de dados e uma camada de serviço de API, tudo totalmente gerenciado no Atlas.

Atlas Stream Processing

Como isso unifica a experiência de trabalhar com dados em movimento e dados em repouso?
Atlas Stream Processing diagram

Capacidades
misc_grow

Processamento contínuo

Crie aggregation pipeline para consultar, analisar e React continuamente ao streaming de dados sem os atrasos inerentes ao processamento em lote.

general_features_complexity

Validação contínua

Execute a validação contínua do esquema para verificar se os eventos foram formados corretamente antes do processamento, detectar corrupção de mensagens e detectar dados que chegaram atrasados e que perderam uma janela de processamento.

general_features_build_faster

Mesclagem contínua

Materialize continuamente visualizações na collection de banco de dados Atlas ou em sistemas de streaming, como o Apache Kafka, para manter novas visualizações analíticas de dados que apoiam a tomada de decisões e ações.

INSIGHTS CONTÍNUOS
"Na Acoustic, nosso foco principal é capacitar as marcas com insights comportamentais que possibilitam a criação de experiências do cliente envolventes e personalizadas. Com o Atlas Stream Processing, nossos engenheiros podem aproveitar as habilidades que já têm de trabalhar com dados no Atlas para processar novos dados continuamente, garantindo que nossos clientes tenham acesso a insights de clientes em tempo real".
John Riewerts
EVP de Engenharia, Acústica
Mãos digitando em notebook.
Aplicativos orientados a eventos
Preparando o caminho para um negócio responsivo e reativo em tempo realBaixe o artigo

Experimente a simplicidade e o poder do Atlas Stream Processing

Use o Atlas Stream Processing para processar e validar facilmente dados de eventos complexos, mesclando-os para uso exatamente onde você precisar.
Consulte a documentação
Consultando fluxos de dados do Apache Kafka
O processamento de fluxo do Atlas torna a consulta de dados do Apache Kafka tão fácil quanto para consultar o MongoDB. Basta definir uma fonte, os estágios de agregação desejados e um coletor para processar rapidamente seus fluxos de dados do Apache Kafka.
Análise avançada com funções de janelas
Operadores de janela no Atlas Stream Processing permitem que você analise e processe janelas específicas de tamanho fixo de dados dentro de um fluxo contínuo de dados, facilitando a descoberta de padrões e tendências.
Validação de esquema de eventos complexos
A validação contínua é essencial para garantir que os eventos sejam formados corretamente antes do processamento para detectar o corrompimento da mensagem e se os dados que chegam tarde perderam uma janela de processamento.
Consultando fluxos de dados do Apache Kafka
O processamento de fluxo do Atlas torna a consulta de dados do Apache Kafka tão fácil quanto para consultar o MongoDB. Basta definir uma fonte, os estágios de agregação desejados e um coletor para processar rapidamente seus fluxos de dados do Apache Kafka.
MongoDB Query API
Análise avançada com funções de janelas
Operadores de janela no Atlas Stream Processing permitem que você analise e processe janelas específicas de tamanho fixo de dados dentro de um fluxo contínuo de dados, facilitando a descoberta de padrões e tendências.
MongoDB Query API
Validação de esquema de eventos complexos
A validação contínua é essencial para garantir que os eventos sejam formados corretamente antes do processamento para detectar o corrompimento da mensagem e se os dados que chegam tarde perderam uma janela de processamento.
MongoDB Query API
MongoDB Query API

Aproveite ao máximo o Atlas

Potencialize mais experiências e insights baseados em dados com o restante de nossa plataforma de dados de desenvolvedor.
atlas_database

Banco de dados

Comece com o serviço de banco de dados multi-cloud criado para resiliência, escala e os mais altos níveis de privacidade e segurança de dados.

atlas_triggers

Acionadores

Execute código automaticamente para atender às alterações feitas em banco de dados, eventos do usuário ou intervalos predefinidos.

connectors_kafka

Conector Kafka

Integre de forma nativa os dados do MongoDB ao ecossistema do Kafka.


Perguntas frequentes

Quer saber mais sobre processamento de stream?
Ver mais recursos
O que é streaming de dados?
Os dados de streaming são gerados continuamente a partir de uma ampla variedade de fontes. Sensores IoT, microsserviços e dispositivos móveis são fontes comuns de fluxos de dados de alto volume. A natureza contínua do fluxo de dados, bem como sua imutabilidade, tornam-no único em relação aos dados estáticos em repouso em um banco de dados.
O que é processamento de fluxo?
O processamento de fluxo está ingerindo e transformando continuamente dados de eventos de uma plataforma de mensagens de eventos (como Apache Kafka) para executar várias funções. Isso pode MEAN a criação de filtros simples para remover dados desnecessários, a realização de agregações para contar ou somar dados conforme necessário, a criação Windows com estado e muito mais. O processamento de fluxo pode ser uma característica diferenciadora em aplicações orientadas a eventos, permitindo experiências do cliente mais reativas e responsivas.
Qual a diferença entre o streaming de eventos e o processamento de stream?

O streaming de dados reside dentro de plataformas de streaming de eventos (como Apache Kafka) e esses sistemas são essencialmente registro log distribuído imutável. Os dados de eventos são publicados e consumidos em plataformas de streaming de eventos por meio de API.

Os desenvolvedores precisam usar um processador de fluxo para realizar processamentos mais avançados, como agregações com estado, operações de janela, mutações e criação de visualizações materializadas. Elas são semelhantes às operações realizadas ao executar consultas em um banco de dados, exceto que o processamento de fluxo consulta constantemente um fluxo infinito de dados. Essa área de streaming é mais incipiente; no entanto, tecnologias como Apache Flink e Spark Streaming estão ganhando força rapidamente.

Com o Atlas Stream Processing, o MongoDB oferece aos desenvolvedores uma maneira melhor de processar fluxos para uso em seus aplicativos, alavancando a estrutura de agregação.

Por que o MongoDB construiu o Atlas Stream Processing?
O processamento de fluxo é um componente cada vez mais crítico para a construção de aplicações responsivas e baseadas em eventos. Adicionando a funcionalidade de processamento de fluxo como um recurso nativo no Atlas, estamos ajudando mais desenvolvedores a criar aplicações inovadoras utilizando nossa plataforma de dados para desenvolvedores multicloud, o MongoDB Atlas.
Como posso começar a utilizar a prévia pública do Atlas Stream Processing?
O Atlas Stream Processing encontra-se disponível para todos os usuários do Atlas. Basta iniciar a sessão e clicar na aba Stream Processing (processamento de fluxo) para começar.
Como o processamento de fluxo difere do processamento em lote?

O processamento do fluxo é contínuo. No contexto da criação de aplicativos baseados em eventos, o processamento de fluxo permite experiências reativas e atraentes, como notificações em tempo real, personalização, planejamento de rotas ou manutenção preditiva.

O processamento em lote não funciona em dados produzidos continuamente. Em vez disso, o processamento em lote funciona coletando dados durante um período de tempo especificado e, em seguida, processando esses dados estáticos conforme o necessário. Um exemplo de processamento em lote é uma empresa de varejo que coleta vendas no fechamento do negócio todos os dias para fins de relatório e/ou atualização dos níveis de estoque.

Comece hoje mesmo no Atlas

O Atlas Stream Processing encontra-se disponível em prévia pública.
Entrar
Ilustração de um pipeline representando o Atlas Stream Processing.