As seguintes limitações se aplicam ao Atlas Stream Processing:
O
state.stateSizede um processador de stream não pode exceder 80% da RAM disponível para seu pod. Por exemplo, o tamanho máximo de um processador de fluxo noSP30nível, que possui 8GB de RAM, é 6,4GB. Se ostate.stateSizede algum dos seus processadores de fluxo estiver chegando a 80% da RAM disponível, considere parar o processador e reiniciá-lo em um nível superior. Se seu processador de fluxo já executa no nível máximo habilitado para seu espaço de trabalho de processamento de fluxos, considere ajustar a configuração do seu espaço de trabalho de processamento de fluxos para habilitar processadores de fluxo de nível superior.Quando um processador de fluxo ultrapassa o limite de 80% de RAM, ele falha com um erro
stream processing workspace out of memory. Você pode ver o valorstate.stateSizede cada processador de fluxo com o comandosp.processor.stats(). Confira Veja "Estatísticas de um processador de fluxo" para saber mais.Um espaço de trabalho do processamento de fluxos pode usar apenas clusters no mesmo projeto como fontes ou coletores.
Uma definição de pipeline do Atlas Stream Processing não pode exceder 16 MB.
Somente usuários com a
Project OwnerouAtlas adminfunções podem usar o Atlas Stream Processing.Atualmente, o Atlas Stream Processing é compatível apenas com os seguintes tipos de conexão:
Tipo de conexãoUsoFonte ou Coletor
Banco de Dados Atlas
Fonte ou Coletor
Conexão de amostra
Apenas fonte
Para o Atlas Stream Processing usando Apache Kafka como $source, se o tópico do Apache Kafka que atua como $source para o processador em execução adicionar uma partição, o Atlas Stream Processing continuará em execução sem ler a partição. O processador falha quando detecta a nova partição depois de restaurá-la de um checkpoint após uma falha, ou você a reinicia após interrompê-la. Você deve recriar os processadores que leem dos tópicos com as partições recém-adicionadas.
Atualmente, o Atlas Stream Processing permite apenas dados formatados em JSON. Atualmente, ele não oferece suporte a serializações alternativas, como Avro ou Protocol Buffers.
Para conexões Apache Kafka, o Atlas Stream Processing atualmente aceita apenas os seguintes protocolos de segurança:
SASL_PLAINTEXTSASL_SSLSSL
Para
SASL, o Atlas Stream Processing suporta os seguintes mecanismos:PLAINSCRAM-SHA-256SCRAM-SHA-512OAUTHBEARER
SSLPara, você deve fornecer os seguintes ativos para a autenticação TLS mútua do seu sistema Apache Kafka com o Atlas Stream Processing:uma Autoridade de certificação (se você estiver usando uma autoridade de certificação diferente da Apache Kafka CA padrão)
um certificado TLS do cliente
um arquivo de chave TLS, usado para assinar seu certificado TLS
O Atlas Stream Processing não é compatível com UDFs de $function JavaScript.
O Atlas Stream Processing é compatível com um subconjunto dos Estágios de Pipeline de agregação disponíveis no Atlas, permitindo que você execute muitas das mesmas operações em dados de streaming que você pode realizar em dados em repouso. Para obter uma lista completa dos estágios do pipeline de agregação compatíveis, consulte a documentação do Stream Aggregation.
O Atlas Stream Processing não aceita as variáveis de agregação
$$NOW,$$CLUSTER_TIME,$$USER_ROLESe$SEARCH_META.