Criar um índice do Atlas Search
Obsoleto(a)
Cria um índice do Atlas Search na coleção especificada. Os índices do Atlas Search definem os campos nos quais criar o índice e os analisadores a serem usados ao criar o índice. Somente clusters executando o MongoDB v4.2 ou posterior podem usar o Atlas Search. Para utilizar esse recurso, a conta de serviço ou a chave de API solicitante deve ter a função de administrador de acesso aos dados do projeto.
parâmetros de caminho
-
Sequência única de 24dígitos hexadecimais que identifica seu projeto. Use o endpoint /groups para extrair todos os projetos aos quais o usuário autenticado tem acesso.
AVISO: grupos e projetos são termos sinônimos. O ID do seu grupo é igual ao ID do seu projeto. Para grupos existentes, o ID do grupo/projeto permanece o mesmo. O recurso e os endpoints correspondentes usam o termo grupos.
O formato deve corresponder ao seguinte padrão:
^([a-f0-9]{24})$
. -
Nome do cluster que contém a coleção na qual criar um índice do Atlas Search.
O formato deve corresponder ao seguinte padrão:
^[a-zA-Z0-9][a-zA-Z0-9-]*$
.
parâmetros de query
-
Sinalizador que indica se o aplicativo empacota a resposta em um objeto JSON
envelope
. Alguns clientes de API não podem acessar os cabeçalhos de resposta HTTP ou o código de status. Para corrigir isso, defina envelope=true na consulta. Os endpoints que retornam uma lista de resultados usam o objeto de resultados como um envelope. O aplicativo adiciona o parâmetro de status ao corpo da resposta.O valor padrão é
false
. -
Sinalizador que indica se o corpo da resposta deve estar no formato prettyprint.
O valor padrão é
false
.Prettyprint
corpo, corpo
objeto
Obrigatório
Cria um índice do Atlas Search na collection especificada.
-
Rótulo legível por humanos que identifica a coleção que contém um ou mais índices do Atlas Search.
-
Rótulo legível por humanos que identifica o banco de dados que contém a collection com um ou mais índices do Atlas Search.
-
Rótulo legível por humanos que identifica este índice. Dentro de cada namespace, os nomes de todos os índices do namespace devem ser únicos.
-
Número de partições de índice. Os valores permitidos são [1, 2, 4].
O valor padrão é
1
. -
Tipo de índice. O tipo padrão é pesquisar.
O valor é
search
. -
Método pré-definido específico escolhido para converter texto do campo do banco de dados em palavras pesquisáveis. Essa conversão reduz o texto dos campos nas menores unidades de texto. Essas unidades são chamadas de termo ou token. Esse processo, conhecido como tokenização, envolve uma variedade de alterações feitas no texto nos campos:
- extraindo palavras
- remover pontuação
- removendo acentos
- mudando para minúsculas
- removendo palavras comuns
- reduzindo palavras à sua forma raiz (stemming)
- alterar as palavras para sua forma básica (lematização). O MongoDB Cloud usa o processo selecionado para criar o índice do Atlas Search.
Os valores são
lucene.standard
,lucene.simple
,lucene.whitespace
,lucene.keyword
,lucene.arabic
,lucene.armenian
,lucene.basque
,lucene.bengali
,lucene.brazilian
,lucene.bulgarian
,lucene.catalan
,lucene.chinese
,lucene.cjk
,lucene.czech
,lucene.danish
,lucene.dutch
,lucene.english
,lucene.finnish
,lucene.french
,lucene.galician
,lucene.german
,lucene.greek
,lucene.hindi
,lucene.hungarian
,lucene.indonesian
,lucene.irish
,lucene.italian
,lucene.japanese
,lucene.korean
,lucene.kuromoji
,lucene.latvian
,lucene.lithuanian
,lucene.morfologik
,lucene.nori
,lucene.norwegian
,lucene.persian
,lucene.portuguese
,lucene.romanian
,lucene.russian
,lucene.smartcn
,lucene.sorani
,lucene.spanish
,lucene.swedish
,lucene.thai
,lucene.turkish
oulucene.ukrainian
. O valor padrão élucene.standard
.Analisadores de Atlas Search -
Lista de métodos definidos pelo usuário para converter texto do campo do banco de dados em palavras pesquisáveis.
Configurações que descrevem um analisador personalizado do Atlas Search .
Analisadores personalizados do Atlas Search Ocultar atributos dos analisadores Mostrar atributos dos analisadores objeto
-
Filtros que examinam o texto de um caractere de cada vez e executam operações de filtragem.
Um dos seguintes: Filtro que remove as construções HTML.
Filtro que processa texto normalizado com o Normalizador ICU. Ele é baseado no ICUNormalizer2CharFilter da Lucene.
Filtro que aplica mapeamentos de normalização que você especifica para caracteres.
Ocultar atributos Mostrar atributos
-
Lista de mapeamentos separados por vírgula. Um mapeamento indica que um caractere ou grupo de caracteres deve ser substituído por outro, usando o seguinte formato:
<original> : <replacement>
. -
Etiqueta legível para humanos que identifica este tipo de filtro de caracteres.
O valor é
mapping
.
-
-
Nome legível por humanos que identifica o analisador personalizado. Os nomes devem ser únicos dentro de um índice e não devem começar com nenhuma das seguintes strings:
lucene.
builtin.
mongodb.
-
Filtro que executa operações como:
Stemming, que reduz palavras relacionadas, como "falar", "falou" e "fala" à sua palavra raiz "falar".
Redação, remoção de informações confidenciais de documentos públicos.
Qualquer um dos seguintes: objeto tokenFilterasciiFoldingobjeto tokenFilterdaitchMokotoffSoundexobjeto tokenFilteredgeGram TokenFilterobjeto objeto TokenFilterFlattenGraphobjeto tokenFiltericuFoldingobjeto tokenFiltericuNormalizer TokenFilterkStemmingobject objeto de comprimento tokenFilterobjeto tokenFilter lowercaseobjeto tokenFilternGramobjeto TokenFilterPorterStemmingobjeto tokenFilterregexobjeto tokenFilterreverseobjeto tokenFiltershingleobjeto tokenFiltersknowballStemmingobjeto TokenFilterSpanishPluralStemming TokenFilterStempelobject objeto tokenFilterstopwordobjeto tokenFiltertrimobjeto TokenFilterWordelimiterGraphFiltro que converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão no bloco Unicode latino básico para os ASCII equivalentes, se disponíveis.
Ocultar atributos Mostrar atributos
-
Valor que indica se incluir ou omitir os tokens originais na saída do filtro de token.
Escolha
include
se você deseja suportar queries nos tokens originais, bem como nos formulários convertidos.Escolha
omit
se quiser fazer query apenas nos formulários convertidos dos tokens originais.Os valores são
omit
ouinclude
. O valor padrão éomit
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
asciiFolding
.
Filtro que cria tokens para palavras que soam iguais com base no algoritmo fonético Daitch-Mokotoff Soundex. Este filtro pode gerar várias codificações para cada entrada, onde cada token codificado é um número de dígitos 6.
OBSERVAÇÃO: não use o filtro de token daitchMokotoffSoundex em:
-Sinônimo ou definições de mapeamento de preenchimento automático
- Operadores onde o fuzzy está habilitado. O Atlas Search suporta a opção difusa apenas para os operadores de preenchimento automático, termo e texto .
Ocultar atributos Mostrar atributos
-
Valor que indica se incluir ou omitir os tokens originais na saída do filtro de token.
Escolha
include
se você deseja suportar queries nos tokens originais, bem como nos formulários convertidos.Escolha
omit
se quiser fazer query apenas nos formulários convertidos dos tokens originais.Os valores são
omit
ouinclude
. O valor padrão éinclude
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
daitchMokotoffSoundex
.
Filtro que tokeniza a entrada do lado esquerdo, ou a "borda", de uma entrada de texto em n-gramas de tamanhos configurados. Você não pode usar este filtro de token em definições de mapeamento de sinônimos ou de preenchimento automático.
Ocultar atributos Mostrar atributos
-
Valor que especifica o comprimento máximo de n-grams gerados. Este valor deve ser maior ou igual a minGram.
-
Valor que especifica o comprimento mínimo de n-grams gerados. Este valor deve ser menor ou igual a maxGram.
-
Valor que indica se os tokens de índice são menores que minGram ou maiores que maxGram .
Os valores são
omit
ouinclude
. O valor padrão éomit
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
edgeGram
.
Filtro que remove a apóstrofe possessiva (s) das palavras.
Filtro que transforma um gráfico de filtro de token, como o gráfico de filtro de token que o filtro de token wordDelimiterGraph produz, em um formulário plano adequado para indexação.
Filtro que aplica o dobramento de caracteres do Relatório técnico unicode #30.
Filtro que normaliza tokens usando um Modo de Normalização Unicode padrão.
Filtro que combina o stemming algorítmico com um dicionário incorporado para o idioma inglês para fazer o stemming das palavras.
Filtro que remove tokens muito curtos ou muito longos.
Ocultar atributos Mostrar atributos
-
Número que especifica o comprimento máximo de um token. O valor deve ser maior ou igual a min.
O valor padrão é
255
. -
Número que especifica o comprimento mínimo de um token. Esse valor deve ser menor ou igual a max.
O valor padrão é
0
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
length
.
Filtro que normaliza o texto do token para minúsculas.
Filtro que tokeniza a entrada em n-grams de tamanhos configurados. Você não pode usar este filtro de token em definições de mapeamento de sinônimos ou de preenchimento automático.
Ocultar atributos Mostrar atributos
-
Valor que especifica o comprimento máximo de n-grams gerados. Este valor deve ser maior ou igual a minGram.
-
Valor que especifica o comprimento mínimo de n-grams gerados. Este valor deve ser menor ou igual a maxGram.
-
Valor que indica se os tokens de índice são menores que minGram ou maiores que maxGram .
Os valores são
omit
ouinclude
. O valor padrão éomit
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
nGram
.
Filtro que usa o algoritmo de derivação de porter para remover os sufixos morfológicos e flexionais comuns das palavras em inglês. Ele espera texto em minúsculas e não funciona como esperado para texto em maiúsculas.
Filtro que aplica uma expressão regular a cada token, substituindo as correspondências por uma string especificada.
Ocultar atributos Mostrar atributos
-
Valor que indica se deseja substituir apenas o primeiro padrão correspondente ou todos os padrões correspondentes.
Os valores são
all
oufirst
. -
Padrão de expressão regular para aplicar a cada token.
-
String de substituição para substituir sempre que ocorrer um padrão correspondente.
-
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
regex
.
Filtro que inverte cada token de string.
Filtro que constrói shingles (n-grams de token) a partir de uma série de tokens. Você não pode usar este filtro de token em definições de mapeamento de sinônimos ou de preenchimento automático.
Ocultar atributos Mostrar atributos
-
Valor que especifica o número máximo de tokens por shingle. Este valor deve ser maior ou igual a minshingleSize.
-
Valor que especifica o número mínimo de tokens por shingle. Este valor deve ser menor ou igual a maxSHingleSize.
-
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
shingle
.
Filtro que origina tokens usando um derivador gerado pelo Snowball.
Ocultar atributos Mostrar atributos
-
Stemmer gerado por Snowball para usar.
Os valores são
arabic
,armenian
,basque
,catalan
,danish
,dutch
,english
,finnish
,french
,german
,german2
,hungarian
,irish
,italian
,kp
,lithuanian
,lovins
,norwegian
,porter
,portuguese
,romanian
,russian
,spanish
,swedish
outurkish
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
snowballStemming
.
Filtro que origina palavras no plural em espanhol. Ele espera texto em minúsculas.
Filtro que usa a tabela de extração polonesa padrão da Lucene para extrair palavras no idioma polonês. Ele espera texto em minúsculas.
Filtro que remove tokens que correspondem às palavras vazias especificadas. Este filtro de tokens não analisa as palavras vazias que você especifica.
Ocultar atributos Mostrar atributos
-
Sinalizador que indica se deve-se ignorar maiúsculas e minúsculas ao filtrar os tokens a serem removidos.
O valor padrão é
true
. -
As palavras vazias que correspondem aos tokens a serem removidos. O valor deve ser uma ou mais palavras vazias.
-
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
stopword
.
Filtro que corta o espaço em branco à esquerda e à direita dos tokens.
Filtro que divide os tokens em sub-tokens com base nas regras configuradas.
Ocultar atributos Mostrar atributos
-
Objeto que contém as regras que determinam como dividir palavras em subpalavras.
Ocultar atributos delimiterOptions Mostrar atributos delimiterOptions objeto
-
Sinalizador que indica se as execuções devem ser concatenadas.
O valor padrão é
false
. -
Sinalizador que indica se execuções de subnúmeros devem ser concatenadas.
O valor padrão é
false
. -
Sinalizador que indica se as execuções de subpalavras devem ser concatenadas.
O valor padrão é
false
. -
Sinalizador que indica se os tokens devem ser divididos com base em subnúmeros. Por exemplo, se
true
, essa opção divide100-2
em100
e2
.O valor padrão é
true
. -
Sinalizador que indica se os tokens devem divisão com base em subpalavras.
O valor padrão é
true
. -
Sinalizador que indica se você deve ignorar tokens com o atributo
keyword
definido comotrue
.O valor padrão é
false
. -
Sinalizador que indica se deve-se gerar tokens das palavras originais.
O valor padrão é
true
. -
Sinalizador que indica se os tokens devem divisão com base nas transições entre letras maiúsculas e minúsculas.
O valor padrão é
true
. -
Sinalizador que indica se os tokens devem ser divisão com base em transições de letra e número.
O valor padrão é
true
. -
Sinalizador que indica se os possessivos finais de cada subpalavra devem ser removidos.
O valor padrão é
true
.
-
-
Objeto que contém opções para palavras protegidas.
Ocultar atributos protegidas de Palavras Mostrar atributos protegidas de Palavras objeto
-
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
wordDelimiterGraph
.
Tokenizador
objeto Obrigatório Tokenizador que você deseja utilizar para criar tokens. Os tokens determinam como o Atlas Search faz a divisão do texto em partes para indexação.
Um dos seguintes: Tokenizador que divide a entrada do lado esquerdo, ou a "borda", de uma entrada de texto em n-gramas de determinados tamanhos. Você não pode usar o tokenizador edgeGram em definições de mapeamento de sinônimos ou de preenchimento automático .
Ocultar atributos Mostrar atributos
-
Caracteres a serem incluídos no token mais longo criado Atlas Search .
-
Caracteres a serem incluídos no token mais curto criado Atlas Search .
-
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
edgeGram
.
Tokenizador que combina toda a entrada como um único token.
Tokenizador que divide a entrada em blocos de texto, ou "n-grams", de determinados tamanhos. Você não pode usar o tokenizador nGram em definições de mapeamento de sinônimos ou de preenchimento automático .
Ocultar atributos Mostrar atributos
-
Caracteres a serem incluídos no token mais longo criado Atlas Search .
-
Caracteres a serem incluídos no token mais curto criado Atlas Search .
-
Etiqueta legível por humanos que identifica este tipo de tokenizador .
Tokenizador que usa um padrão de expressão regular para extrair tokens.
Ocultar atributos Mostrar atributos
-
Índice do grupo de caracteres dentro da expressão correspondente para extrair em tokens. Use
0
para extrair todos os grupos de caracteres. -
Expressão regular para correspondência.
-
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
regexCaptureGroup
.
Tokenizador que divide tokens usando um delimitador baseado em expressão regular.
Tokenizador que divide tokens com base nas regras de quebra de palavras do algoritmo de segmentação de texto Unicode.
Ocultar atributos Mostrar atributos
-
Número máximo de caracteres em um único token. Tokens maiores que esse comprimento são divisão nesse comprimento em vários tokens.
O valor padrão é
255
. -
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
standard
.
Tokenizador que cria tokens a partir de URLse endereços de e-mail. Embora esse tokenizador use regras de quebra de palavras do algoritmo de segmentação de texto Unicode, recomendamos usá-lo somente quando o valor do campo indexado incluir URLs e endereços de e-mail. Para campos que não incluem URLsou endereços de e-mail, use o tokenizador padrão para criar tokens com base em regras de quebra de palavras.
Ocultar atributos Mostrar atributos
-
Número máximo de caracteres em um único token. Tokens maiores que esse comprimento são divisão nesse comprimento em vários tokens.
O valor padrão é
255
. -
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
uaxUrlEmail
.
Tokenizador que cria tokens com base em ocorrências de espaços em branco entre as palavras.
Ocultar atributos Mostrar atributos
-
Número máximo de caracteres em um único token. Tokens maiores que esse comprimento são divisão nesse comprimento em vários tokens.
O valor padrão é
255
. -
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
whitespace
.
-
-
-
Especificações de índice para os campos da collection.
Ocultar atributos de mapeamentos Mostrar atributos de mapeamentos objeto
-
Sinalizador que indica se o índice utiliza mapeamentos dinâmicos ou estáticos. Obrigatório se maps.fields for omitido.
O valor padrão é
false
.Mapeamentos dinâmicos ou estáticos -
Uma ou mais especificações de campo para o índice do Atlas Search . Obrigatório se maps.dynamic for omitido ou definido como false.
Índice de Pesquisa do Atlas Ocultar atributos de campos Mostrar atributo de campos objeto
-
-
Método aplicado para identificar palavras ao pesquisar este índice.
Os valores são
lucene.standard
,lucene.simple
,lucene.whitespace
,lucene.keyword
,lucene.arabic
,lucene.armenian
,lucene.basque
,lucene.bengali
,lucene.brazilian
,lucene.bulgarian
,lucene.catalan
,lucene.chinese
,lucene.cjk
,lucene.czech
,lucene.danish
,lucene.dutch
,lucene.english
,lucene.finnish
,lucene.french
,lucene.galician
,lucene.german
,lucene.greek
,lucene.hindi
,lucene.hungarian
,lucene.indonesian
,lucene.irish
,lucene.italian
,lucene.japanese
,lucene.korean
,lucene.kuromoji
,lucene.latvian
,lucene.lithuanian
,lucene.morfologik
,lucene.nori
,lucene.norwegian
,lucene.persian
,lucene.portuguese
,lucene.romanian
,lucene.russian
,lucene.smartcn
,lucene.sorani
,lucene.spanish
,lucene.swedish
,lucene.thai
,lucene.turkish
oulucene.ukrainian
. O valor padrão élucene.standard
. -
Sinalizador que indica se deve armazenar todos os campos (verdadeiro) no Atlas Search. Por padrão, o Atlas não armazena (falso) os campos no Atlas Search. Como alternativa, você pode especificar um objeto que contém somente a lista de campos para armazenar (incluir) ou não armazenar (excluir) no Atlas Search. Para saber mais, consulte a documentação.
Campos de Origem Armazenados -
Conjuntos de regras que mapeiam palavras em relação a seus sinônimos neste índice.
Sinônimos usados para este índice de texto completo.
Mapeamento de sinônimos Ocultar atributos de sinônimos Mostrar atributos de sinônimos objeto
-
Método pré-definido específico escolhido para aplicar aos sinônimos a serem pesquisados.
Os valores são
lucene.standard
,lucene.simple
,lucene.whitespace
,lucene.keyword
,lucene.arabic
,lucene.armenian
,lucene.basque
,lucene.bengali
,lucene.brazilian
,lucene.bulgarian
,lucene.catalan
,lucene.chinese
,lucene.cjk
,lucene.czech
,lucene.danish
,lucene.dutch
,lucene.english
,lucene.finnish
,lucene.french
,lucene.galician
,lucene.german
,lucene.greek
,lucene.hindi
,lucene.hungarian
,lucene.indonesian
,lucene.irish
,lucene.italian
,lucene.japanese
,lucene.korean
,lucene.kuromoji
,lucene.latvian
,lucene.lithuanian
,lucene.morfologik
,lucene.nori
,lucene.norwegian
,lucene.persian
,lucene.portuguese
,lucene.romanian
,lucene.russian
,lucene.smartcn
,lucene.sorani
,lucene.spanish
,lucene.swedish
,lucene.thai
,lucene.turkish
oulucene.ukrainian
. -
Etiqueta que identifica a definição de sinônimo. Cada sinônimo.name deve ser único dentro da mesma definição de índice.
-
Conjunto de dados que armazena palavras e seus sinônimos aplicáveis.
-
-
Rótulo legível por humanos que identifica a coleção que contém um ou mais índices do Atlas Search.
-
Rótulo legível por humanos que identifica o banco de dados que contém a collection com um ou mais índices do Atlas Search.
-
Rótulo legível por humanos que identifica este índice. Dentro de cada namespace, os nomes de todos os índices do namespace devem ser únicos.
-
Número de partições de índice. Os valores permitidos são [1, 2, 4].
O valor padrão é
1
. -
Tipo de índice. O tipo padrão é pesquisar.
O valor é
vectorSearch
. -
Configurações que configuram os campos, um por objeto, para indexar. Você deve definir pelo menos um campo do tipo "vetor". Opcionalmente, você também pode definir campos do tipo "filtro".
Campos de Vector Search
Respostas
-
OK
Um dos seguintes: Ocultar atributos Mostrar atributos
-
Rótulo legível por humanos que identifica a coleção que contém um ou mais índices do Atlas Search.
-
Rótulo legível por humanos que identifica o banco de dados que contém a collection com um ou mais índices do Atlas Search.
-
Rótulo legível por humanos que identifica este índice. Dentro de cada namespace, os nomes de todos os índices do namespace devem ser únicos.
-
Número de partições de índice. Os valores permitidos são [1, 2, 4].
O valor padrão é
1
. -
Tipo de índice. O tipo padrão é pesquisar.
O valor é
search
. -
Método pré-definido específico escolhido para converter texto do campo do banco de dados em palavras pesquisáveis. Essa conversão reduz o texto dos campos nas menores unidades de texto. Essas unidades são chamadas de termo ou token. Esse processo, conhecido como tokenização, envolve uma variedade de alterações feitas no texto nos campos:
- extraindo palavras
- remover pontuação
- removendo acentos
- mudando para minúsculas
- removendo palavras comuns
- reduzindo palavras à sua forma raiz (stemming)
- alterar as palavras para sua forma básica (lematização). O MongoDB Cloud usa o processo selecionado para criar o índice do Atlas Search.
Os valores são
lucene.standard
,lucene.simple
,lucene.whitespace
,lucene.keyword
,lucene.arabic
,lucene.armenian
,lucene.basque
,lucene.bengali
,lucene.brazilian
,lucene.bulgarian
,lucene.catalan
,lucene.chinese
,lucene.cjk
,lucene.czech
,lucene.danish
,lucene.dutch
,lucene.english
,lucene.finnish
,lucene.french
,lucene.galician
,lucene.german
,lucene.greek
,lucene.hindi
,lucene.hungarian
,lucene.indonesian
,lucene.irish
,lucene.italian
,lucene.japanese
,lucene.korean
,lucene.kuromoji
,lucene.latvian
,lucene.lithuanian
,lucene.morfologik
,lucene.nori
,lucene.norwegian
,lucene.persian
,lucene.portuguese
,lucene.romanian
,lucene.russian
,lucene.smartcn
,lucene.sorani
,lucene.spanish
,lucene.swedish
,lucene.thai
,lucene.turkish
oulucene.ukrainian
. O valor padrão élucene.standard
.Analisadores de Atlas Search -
Lista de métodos definidos pelo usuário para converter texto do campo do banco de dados em palavras pesquisáveis.
Configurações que descrevem um analisador personalizado do Atlas Search .
Analisadores personalizados do Atlas Search Ocultar atributos dos analisadores Mostrar atributos dos analisadores objeto
-
Filtros que examinam o texto de um caractere de cada vez e executam operações de filtragem.
Um dos seguintes: Filtro que remove as construções HTML.
Filtro que processa texto normalizado com o Normalizador ICU. Ele é baseado no ICUNormalizer2CharFilter da Lucene.
Filtro que aplica mapeamentos de normalização que você especifica para caracteres.
Ocultar atributos Mostrar atributos
-
Lista de mapeamentos separados por vírgula. Um mapeamento indica que um caractere ou grupo de caracteres deve ser substituído por outro, usando o seguinte formato:
<original> : <replacement>
. -
Etiqueta legível para humanos que identifica este tipo de filtro de caracteres.
O valor é
mapping
.
-
-
Nome legível por humanos que identifica o analisador personalizado. Os nomes devem ser únicos dentro de um índice e não devem começar com nenhuma das seguintes strings:
lucene.
builtin.
mongodb.
-
Filtro que executa operações como:
Stemming, que reduz palavras relacionadas, como "falar", "falou" e "fala" à sua palavra raiz "falar".
Redação, remoção de informações confidenciais de documentos públicos.
Qualquer um dos seguintes: objeto tokenFilterasciiFoldingobjeto tokenFilterdaitchMokotoffSoundexobjeto tokenFilteredgeGram TokenFilterobjeto objeto TokenFilterFlattenGraphobjeto tokenFiltericuFoldingobjeto tokenFiltericuNormalizer TokenFilterkStemmingobject objeto de comprimento tokenFilterobjeto tokenFilter lowercaseobjeto tokenFilternGramobjeto TokenFilterPorterStemmingobjeto tokenFilterregexobjeto tokenFilterreverseobjeto tokenFiltershingleobjeto tokenFiltersknowballStemmingobjeto TokenFilterSpanishPluralStemming TokenFilterStempelobject objeto tokenFilterstopwordobjeto tokenFiltertrimobjeto TokenFilterWordelimiterGraphFiltro que converte caracteres Unicode alfabéticos, numéricos e simbólicos que não estão no bloco Unicode latino básico para os ASCII equivalentes, se disponíveis.
Ocultar atributos Mostrar atributos
-
Valor que indica se incluir ou omitir os tokens originais na saída do filtro de token.
Escolha
include
se você deseja suportar queries nos tokens originais, bem como nos formulários convertidos.Escolha
omit
se quiser fazer query apenas nos formulários convertidos dos tokens originais.Os valores são
omit
ouinclude
. O valor padrão éomit
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
asciiFolding
.
Filtro que cria tokens para palavras que soam iguais com base no algoritmo fonético Daitch-Mokotoff Soundex. Este filtro pode gerar várias codificações para cada entrada, onde cada token codificado é um número de dígitos 6.
OBSERVAÇÃO: não use o filtro de token daitchMokotoffSoundex em:
-Sinônimo ou definições de mapeamento de preenchimento automático
- Operadores onde o fuzzy está habilitado. O Atlas Search suporta a opção difusa apenas para os operadores de preenchimento automático, termo e texto .
Ocultar atributos Mostrar atributos
-
Valor que indica se incluir ou omitir os tokens originais na saída do filtro de token.
Escolha
include
se você deseja suportar queries nos tokens originais, bem como nos formulários convertidos.Escolha
omit
se quiser fazer query apenas nos formulários convertidos dos tokens originais.Os valores são
omit
ouinclude
. O valor padrão éinclude
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
daitchMokotoffSoundex
.
Filtro que tokeniza a entrada do lado esquerdo, ou a "borda", de uma entrada de texto em n-gramas de tamanhos configurados. Você não pode usar este filtro de token em definições de mapeamento de sinônimos ou de preenchimento automático.
Ocultar atributos Mostrar atributos
-
Valor que especifica o comprimento máximo de n-grams gerados. Este valor deve ser maior ou igual a minGram.
-
Valor que especifica o comprimento mínimo de n-grams gerados. Este valor deve ser menor ou igual a maxGram.
-
Valor que indica se os tokens de índice são menores que minGram ou maiores que maxGram .
Os valores são
omit
ouinclude
. O valor padrão éomit
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
edgeGram
.
Filtro que remove a apóstrofe possessiva (s) das palavras.
Filtro que transforma um gráfico de filtro de token, como o gráfico de filtro de token que o filtro de token wordDelimiterGraph produz, em um formulário plano adequado para indexação.
Filtro que aplica o dobramento de caracteres do Relatório técnico unicode #30.
Filtro que normaliza tokens usando um Modo de Normalização Unicode padrão.
Filtro que combina o stemming algorítmico com um dicionário incorporado para o idioma inglês para fazer o stemming das palavras.
Filtro que remove tokens muito curtos ou muito longos.
Ocultar atributos Mostrar atributos
-
Número que especifica o comprimento máximo de um token. O valor deve ser maior ou igual a min.
O valor padrão é
255
. -
Número que especifica o comprimento mínimo de um token. Esse valor deve ser menor ou igual a max.
O valor padrão é
0
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
length
.
Filtro que normaliza o texto do token para minúsculas.
Filtro que tokeniza a entrada em n-grams de tamanhos configurados. Você não pode usar este filtro de token em definições de mapeamento de sinônimos ou de preenchimento automático.
Ocultar atributos Mostrar atributos
-
Valor que especifica o comprimento máximo de n-grams gerados. Este valor deve ser maior ou igual a minGram.
-
Valor que especifica o comprimento mínimo de n-grams gerados. Este valor deve ser menor ou igual a maxGram.
-
Valor que indica se os tokens de índice são menores que minGram ou maiores que maxGram .
Os valores são
omit
ouinclude
. O valor padrão éomit
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
nGram
.
Filtro que usa o algoritmo de derivação de porter para remover os sufixos morfológicos e flexionais comuns das palavras em inglês. Ele espera texto em minúsculas e não funciona como esperado para texto em maiúsculas.
Filtro que aplica uma expressão regular a cada token, substituindo as correspondências por uma string especificada.
Ocultar atributos Mostrar atributos
-
Valor que indica se deseja substituir apenas o primeiro padrão correspondente ou todos os padrões correspondentes.
Os valores são
all
oufirst
. -
Padrão de expressão regular para aplicar a cada token.
-
String de substituição para substituir sempre que ocorrer um padrão correspondente.
-
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
regex
.
Filtro que inverte cada token de string.
Filtro que constrói shingles (n-grams de token) a partir de uma série de tokens. Você não pode usar este filtro de token em definições de mapeamento de sinônimos ou de preenchimento automático.
Ocultar atributos Mostrar atributos
-
Valor que especifica o número máximo de tokens por shingle. Este valor deve ser maior ou igual a minshingleSize.
-
Valor que especifica o número mínimo de tokens por shingle. Este valor deve ser menor ou igual a maxSHingleSize.
-
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
shingle
.
Filtro que origina tokens usando um derivador gerado pelo Snowball.
Ocultar atributos Mostrar atributos
-
Stemmer gerado por Snowball para usar.
Os valores são
arabic
,armenian
,basque
,catalan
,danish
,dutch
,english
,finnish
,french
,german
,german2
,hungarian
,irish
,italian
,kp
,lithuanian
,lovins
,norwegian
,porter
,portuguese
,romanian
,russian
,spanish
,swedish
outurkish
. -
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
snowballStemming
.
Filtro que origina palavras no plural em espanhol. Ele espera texto em minúsculas.
Filtro que usa a tabela de extração polonesa padrão da Lucene para extrair palavras no idioma polonês. Ele espera texto em minúsculas.
Filtro que remove tokens que correspondem às palavras vazias especificadas. Este filtro de tokens não analisa as palavras vazias que você especifica.
Ocultar atributos Mostrar atributos
-
Sinalizador que indica se deve-se ignorar maiúsculas e minúsculas ao filtrar os tokens a serem removidos.
O valor padrão é
true
. -
As palavras vazias que correspondem aos tokens a serem removidos. O valor deve ser uma ou mais palavras vazias.
-
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
stopword
.
Filtro que corta o espaço em branco à esquerda e à direita dos tokens.
Filtro que divide os tokens em sub-tokens com base nas regras configuradas.
Ocultar atributos Mostrar atributos
-
Objeto que contém as regras que determinam como dividir palavras em subpalavras.
Ocultar atributos delimiterOptions Mostrar atributos delimiterOptions objeto
-
Sinalizador que indica se as execuções devem ser concatenadas.
O valor padrão é
false
. -
Sinalizador que indica se execuções de subnúmeros devem ser concatenadas.
O valor padrão é
false
. -
Sinalizador que indica se as execuções de subpalavras devem ser concatenadas.
O valor padrão é
false
. -
Sinalizador que indica se os tokens devem ser divididos com base em subnúmeros. Por exemplo, se
true
, essa opção divide100-2
em100
e2
.O valor padrão é
true
. -
Sinalizador que indica se os tokens devem divisão com base em subpalavras.
O valor padrão é
true
. -
Sinalizador que indica se você deve ignorar tokens com o atributo
keyword
definido comotrue
.O valor padrão é
false
. -
Sinalizador que indica se deve-se gerar tokens das palavras originais.
O valor padrão é
true
. -
Sinalizador que indica se os tokens devem divisão com base nas transições entre letras maiúsculas e minúsculas.
O valor padrão é
true
. -
Sinalizador que indica se os tokens devem ser divisão com base em transições de letra e número.
O valor padrão é
true
. -
Sinalizador que indica se os possessivos finais de cada subpalavra devem ser removidos.
O valor padrão é
true
.
-
-
Objeto que contém opções para palavras protegidas.
Ocultar atributos protegidas de Palavras Mostrar atributos protegidas de Palavras objeto
-
Etiqueta legível para humanos que identifica este tipo de filtro de token.
O valor é
wordDelimiterGraph
.
Tokenizador
objeto Obrigatório Tokenizador que você deseja utilizar para criar tokens. Os tokens determinam como o Atlas Search faz a divisão do texto em partes para indexação.
Um dos seguintes: Tokenizador que divide a entrada do lado esquerdo, ou a "borda", de uma entrada de texto em n-gramas de determinados tamanhos. Você não pode usar o tokenizador edgeGram em definições de mapeamento de sinônimos ou de preenchimento automático .
Ocultar atributos Mostrar atributos
-
Caracteres a serem incluídos no token mais longo criado Atlas Search .
-
Caracteres a serem incluídos no token mais curto criado Atlas Search .
-
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
edgeGram
.
Tokenizador que combina toda a entrada como um único token.
Tokenizador que divide a entrada em blocos de texto, ou "n-grams", de determinados tamanhos. Você não pode usar o tokenizador nGram em definições de mapeamento de sinônimos ou de preenchimento automático .
Ocultar atributos Mostrar atributos
-
Caracteres a serem incluídos no token mais longo criado Atlas Search .
-
Caracteres a serem incluídos no token mais curto criado Atlas Search .
-
Etiqueta legível por humanos que identifica este tipo de tokenizador .
Tokenizador que usa um padrão de expressão regular para extrair tokens.
Ocultar atributos Mostrar atributos
-
Índice do grupo de caracteres dentro da expressão correspondente para extrair em tokens. Use
0
para extrair todos os grupos de caracteres. -
Expressão regular para correspondência.
-
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
regexCaptureGroup
.
Tokenizador que divide tokens usando um delimitador baseado em expressão regular.
Tokenizador que divide tokens com base nas regras de quebra de palavras do algoritmo de segmentação de texto Unicode.
Ocultar atributos Mostrar atributos
-
Número máximo de caracteres em um único token. Tokens maiores que esse comprimento são divisão nesse comprimento em vários tokens.
O valor padrão é
255
. -
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
standard
.
Tokenizador que cria tokens a partir de URLse endereços de e-mail. Embora esse tokenizador use regras de quebra de palavras do algoritmo de segmentação de texto Unicode, recomendamos usá-lo somente quando o valor do campo indexado incluir URLs e endereços de e-mail. Para campos que não incluem URLsou endereços de e-mail, use o tokenizador padrão para criar tokens com base em regras de quebra de palavras.
Ocultar atributos Mostrar atributos
-
Número máximo de caracteres em um único token. Tokens maiores que esse comprimento são divisão nesse comprimento em vários tokens.
O valor padrão é
255
. -
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
uaxUrlEmail
.
Tokenizador que cria tokens com base em ocorrências de espaços em branco entre as palavras.
Ocultar atributos Mostrar atributos
-
Número máximo de caracteres em um único token. Tokens maiores que esse comprimento são divisão nesse comprimento em vários tokens.
O valor padrão é
255
. -
Etiqueta legível por humanos que identifica este tipo de tokenizador .
O valor é
whitespace
.
-
-
-
Especificações de índice para os campos da collection.
Ocultar atributos de mapeamentos Mostrar atributos de mapeamentos objeto
-
Sinalizador que indica se o índice utiliza mapeamentos dinâmicos ou estáticos. Obrigatório se maps.fields for omitido.
O valor padrão é
false
.Mapeamentos dinâmicos ou estáticos -
Uma ou mais especificações de campo para o índice do Atlas Search . Obrigatório se maps.dynamic for omitido ou definido como false.
Índice de Pesquisa do Atlas Ocultar atributos de campos Mostrar atributo de campos objeto
-
-
Método aplicado para identificar palavras ao pesquisar este índice.
Os valores são
lucene.standard
,lucene.simple
,lucene.whitespace
,lucene.keyword
,lucene.arabic
,lucene.armenian
,lucene.basque
,lucene.bengali
,lucene.brazilian
,lucene.bulgarian
,lucene.catalan
,lucene.chinese
,lucene.cjk
,lucene.czech
,lucene.danish
,lucene.dutch
,lucene.english
,lucene.finnish
,lucene.french
,lucene.galician
,lucene.german
,lucene.greek
,lucene.hindi
,lucene.hungarian
,lucene.indonesian
,lucene.irish
,lucene.italian
,lucene.japanese
,lucene.korean
,lucene.kuromoji
,lucene.latvian
,lucene.lithuanian
,lucene.morfologik
,lucene.nori
,lucene.norwegian
,lucene.persian
,lucene.portuguese
,lucene.romanian
,lucene.russian
,lucene.smartcn
,lucene.sorani
,lucene.spanish
,lucene.swedish
,lucene.thai
,lucene.turkish
oulucene.ukrainian
. O valor padrão élucene.standard
. -
Sinalizador que indica se deve armazenar todos os campos (verdadeiro) no Atlas Search. Por padrão, o Atlas não armazena (falso) os campos no Atlas Search. Como alternativa, você pode especificar um objeto que contém somente a lista de campos para armazenar (incluir) ou não armazenar (excluir) no Atlas Search. Para saber mais, consulte a documentação.
Campos de Origem Armazenados -
Conjuntos de regras que mapeiam palavras em relação a seus sinônimos neste índice.
Sinônimos usados para este índice de texto completo.
Mapeamento de sinônimos Ocultar atributos de sinônimos Mostrar atributos de sinônimos objeto
-
Método pré-definido específico escolhido para aplicar aos sinônimos a serem pesquisados.
Os valores são
lucene.standard
,lucene.simple
,lucene.whitespace
,lucene.keyword
,lucene.arabic
,lucene.armenian
,lucene.basque
,lucene.bengali
,lucene.brazilian
,lucene.bulgarian
,lucene.catalan
,lucene.chinese
,lucene.cjk
,lucene.czech
,lucene.danish
,lucene.dutch
,lucene.english
,lucene.finnish
,lucene.french
,lucene.galician
,lucene.german
,lucene.greek
,lucene.hindi
,lucene.hungarian
,lucene.indonesian
,lucene.irish
,lucene.italian
,lucene.japanese
,lucene.korean
,lucene.kuromoji
,lucene.latvian
,lucene.lithuanian
,lucene.morfologik
,lucene.nori
,lucene.norwegian
,lucene.persian
,lucene.portuguese
,lucene.romanian
,lucene.russian
,lucene.smartcn
,lucene.sorani
,lucene.spanish
,lucene.swedish
,lucene.thai
,lucene.turkish
oulucene.ukrainian
. -
Etiqueta que identifica a definição de sinônimo. Cada sinônimo.name deve ser único dentro da mesma definição de índice.
-
Conjunto de dados que armazena palavras e seus sinônimos aplicáveis.
-
Ocultar atributos Mostrar atributos
-
Rótulo legível por humanos que identifica a coleção que contém um ou mais índices do Atlas Search.
-
Rótulo legível por humanos que identifica o banco de dados que contém a collection com um ou mais índices do Atlas Search.
-
Rótulo legível por humanos que identifica este índice. Dentro de cada namespace, os nomes de todos os índices do namespace devem ser únicos.
-
Número de partições de índice. Os valores permitidos são [1, 2, 4].
O valor padrão é
1
. -
Tipo de índice. O tipo padrão é pesquisar.
O valor é
vectorSearch
. -
Configurações que configuram os campos, um por objeto, para indexar. Você deve definir pelo menos um campo do tipo "vetor". Opcionalmente, você também pode definir campos do tipo "filtro".
Campos de Vector Search
-
-
Solicitação inválida.
Ocultar atributos de resposta Mostrar atributos de resposta objeto
-
Detalhes da solicitação inválida.
Ocultar atributo ruimRequestDetail Mostrar atributo ruimRequestDetail objeto
-
Descreve todas as violações em uma solicitação do cliente .
-
-
Descreve as condições ou os motivos específicos que causam cada tipo de erro.
-
O código de status HTTP retornado com este erro.
Documentação externa -
Código de erro do aplicativo retornado com esse erro.
-
Parâmetros usados para fornecer mais informações sobre o erro.
-
Mensagens de erro de aplicativo retornadas com este erro.
-
-
Não autorizado.
Ocultar atributos de resposta Mostrar atributos de resposta objeto
-
Detalhes da solicitação inválida.
Ocultar atributo ruimRequestDetail Mostrar atributo ruimRequestDetail objeto
-
Descreve todas as violações em uma solicitação do cliente .
-
-
Descreve as condições ou os motivos específicos que causam cada tipo de erro.
-
O código de status HTTP retornado com este erro.
Documentação externa -
Código de erro do aplicativo retornado com esse erro.
-
Parâmetros usados para fornecer mais informações sobre o erro.
-
Mensagens de erro de aplicativo retornadas com este erro.
-
-
Forbidden.
Ocultar atributos de resposta Mostrar atributos de resposta objeto
-
Detalhes da solicitação inválida.
Ocultar atributo ruimRequestDetail Mostrar atributo ruimRequestDetail objeto
-
Descreve todas as violações em uma solicitação do cliente .
-
-
Descreve as condições ou os motivos específicos que causam cada tipo de erro.
-
O código de status HTTP retornado com este erro.
Documentação externa -
Código de erro do aplicativo retornado com esse erro.
-
Parâmetros usados para fornecer mais informações sobre o erro.
-
Mensagens de erro de aplicativo retornadas com este erro.
-
-
Não encontrado.
Ocultar atributos de resposta Mostrar atributos de resposta objeto
-
Detalhes da solicitação inválida.
Ocultar atributo ruimRequestDetail Mostrar atributo ruimRequestDetail objeto
-
Descreve todas as violações em uma solicitação do cliente .
-
-
Descreve as condições ou os motivos específicos que causam cada tipo de erro.
-
O código de status HTTP retornado com este erro.
Documentação externa -
Código de erro do aplicativo retornado com esse erro.
-
Parâmetros usados para fornecer mais informações sobre o erro.
-
Mensagens de erro de aplicativo retornadas com este erro.
-
-
Conflito.
Ocultar atributos de resposta Mostrar atributos de resposta objeto
-
Detalhes da solicitação inválida.
Ocultar atributo ruimRequestDetail Mostrar atributo ruimRequestDetail objeto
-
Descreve todas as violações em uma solicitação do cliente .
-
-
Descreve as condições ou os motivos específicos que causam cada tipo de erro.
-
O código de status HTTP retornado com este erro.
Documentação externa -
Código de erro do aplicativo retornado com esse erro.
-
Parâmetros usados para fornecer mais informações sobre o erro.
-
Mensagens de erro de aplicativo retornadas com este erro.
-
-
Erro interno do servidor.
Ocultar atributos de resposta Mostrar atributos de resposta objeto
-
Detalhes da solicitação inválida.
Ocultar atributo ruimRequestDetail Mostrar atributo ruimRequestDetail objeto
-
Descreve todas as violações em uma solicitação do cliente .
-
-
Descreve as condições ou os motivos específicos que causam cada tipo de erro.
-
O código de status HTTP retornado com este erro.
Documentação externa -
Código de erro do aplicativo retornado com esse erro.
-
Parâmetros usados para fornecer mais informações sobre o erro.
-
Mensagens de erro de aplicativo retornadas com este erro.
-
atlas api atlasSearch createGroupClusterFtsIndex --help
import (
"os"
"context"
"log"
sdk "go.mongodb.org/atlas-sdk/v20241023001/admin"
)
func main() {
ctx := context.Background()
clientID := os.Getenv("MONGODB_ATLAS_CLIENT_ID")
clientSecret := os.Getenv("MONGODB_ATLAS_CLIENT_SECRET")
// See https://dochub.mongodb.org/core/atlas-go-sdk-oauth
client, err := sdk.NewClient(sdk.UseOAuthAuth(clientID, clientSecret))
if err != nil {
log.Fatalf("Error: %v", err)
}
params = &sdk.CreateGroupClusterFtsIndexApiParams{}
sdkResp, httpResp, err := client.AtlasSearchApi.
CreateGroupClusterFtsIndexWithParams(ctx, params).
Execute()
}
curl --include --header "Authorization: Bearer ${ACCESS_TOKEN}" \
--header "Accept: application/vnd.atlas.2024-10-23+json" \
--header "Content-Type: application/json" \
-X POST "https://cloud.mongodb.com/api/atlas/v2/groups/{groupId}/clusters/{clusterName}/fts/indexes" \
-d '{ <Payload> }'
curl --user "${PUBLIC_KEY}:${PRIVATE_KEY}" \
--digest --include \
--header "Accept: application/vnd.atlas.2024-10-23+json" \
--header "Content-Type: application/json" \
-X POST "https://cloud.mongodb.com/api/atlas/v2/groups/{groupId}/clusters/{clusterName}/fts/indexes" \
-d '{ <Payload> }'
{
"collectionName": "string",
"database": "string",
"name": "string",
"numPartitions": 1,
"type": "search",
"analyzer": "lucene.standard",
"analyzers": [
{
"charFilters": [
{
"ignoredTags": [
"string"
],
"type": "htmlStrip"
}
],
"name": "string",
"tokenFilters": [
{
"originalTokens": "omit",
"type": "asciiFolding"
}
],
"tokenizer": {
"maxGram": 42,
"minGram": 42,
"type": "edgeGram"
}
}
],
"mappings": {
"dynamic": false,
"fields": {
"additionalProperty1": {},
"additionalProperty2": {}
}
},
"searchAnalyzer": "lucene.standard",
"storedSource": {
"include | exclude": [
"field1",
"field2"
]
},
"synonyms": [
{
"analyzer": "lucene.standard",
"name": "string",
"source": {
"collection": "string"
}
}
]
}
{
"collectionName": "string",
"database": "string",
"name": "string",
"numPartitions": 1,
"type": "vectorSearch",
"fields": [
{
"additionalProperty1": {},
"additionalProperty2": {}
}
]
}
{
"collectionName": "string",
"database": "string",
"name": "string",
"numPartitions": 1,
"type": "search",
"analyzer": "lucene.standard",
"analyzers": [
{
"charFilters": [
{
"ignoredTags": [
"string"
],
"type": "htmlStrip"
}
],
"name": "string",
"tokenFilters": [
{
"originalTokens": "omit",
"type": "asciiFolding"
}
],
"tokenizer": {
"maxGram": 42,
"minGram": 42,
"type": "edgeGram"
}
}
],
"mappings": {
"dynamic": false,
"fields": {
"additionalProperty1": {},
"additionalProperty2": {}
}
},
"searchAnalyzer": "lucene.standard",
"storedSource": {
"include | exclude": [
"field1",
"field2"
]
},
"synonyms": [
{
"analyzer": "lucene.standard",
"name": "string",
"source": {
"collection": "string"
}
}
]
}
{
"collectionName": "string",
"database": "string",
"name": "string",
"numPartitions": 1,
"type": "vectorSearch",
"fields": [
{
"additionalProperty1": {},
"additionalProperty2": {}
}
]
}
{
"error": 400,
"detail": "(This is just an example, the exception may not be related to this endpoint) No provider AWS exists.",
"reason": "Bad Request",
"errorCode": "VALIDATION_ERROR"
}
{
"error": 401,
"detail": "(This is just an example, the exception may not be related to this endpoint)",
"reason": "Unauthorized",
"errorCode": "NOT_ORG_GROUP_CREATOR"
}
{
"error": 403,
"detail": "(This is just an example, the exception may not be related to this endpoint)",
"reason": "Forbidden",
"errorCode": "CANNOT_CHANGE_GROUP_NAME"
}
{
"error": 404,
"detail": "(This is just an example, the exception may not be related to this endpoint) Cannot find resource AWS",
"reason": "Not Found",
"errorCode": "RESOURCE_NOT_FOUND"
}
{
"error": 409,
"detail": "(This is just an example, the exception may not be related to this endpoint) Cannot delete organization link while there is active migration in following project ids: 60c4fd418ebe251047c50554",
"reason": "Conflict",
"errorCode": "CANNOT_DELETE_ORG_ACTIVE_LIVE_MIGRATION_ATLAS_ORG_LINK"
}
{
"error": 500,
"detail": "(This is just an example, the exception may not be related to this endpoint)",
"reason": "Internal Server Error",
"errorCode": "UNEXPECTED_ERROR"
}