Devuelve todos los analizadores personalizados de Atlas Search que el clúster especificado utiliza en el proyecto especificado. Los analizadores personalizados definen las operaciones que se realizan para indexar un campo. Para usar este recurso, la cuenta de servicio o la clave API solicitantes deben tener el rol de lectura y escritura de acceso a datos del proyecto.
Parámetros de path
-
string única de 24dígitos hexadecimales que identifica tu proyecto. Usa el endpoint /groups para recuperar todos los proyectos a los que el usuario autenticado tiene acceso.
NOTA: Grupos y proyectos son términos sinónimos. El id de tu grupo es el mismo que el id de tu proyecto. Para los grupos ya existentes, el id de su grupo/proyecto sigue siendo el mismo. El recurso y los endpoints correspondientes utilizan el término grupos.
El formato debe coincidir con el siguiente patrón:
^([a-f0-9]{24})$. -
Nombre del clúster que contiene la colección con uno o más índices de Atlas Search.
El formato debe coincidir con el siguiente patrón:
^[a-zA-Z0-9][a-zA-Z0-9-]*$.
Parámetros de query
-
Bandera que indica si la aplicación envuelve la respuesta en un objeto JSON
envelope. Algunos clientes de la API no pueden acceder a los encabezados de respuesta HTTP ni al código de estado. Para remediar esto, establece envelope=true en la query. Los endpoints que devuelven una lista de resultados utilizan el objeto de resultados como un sobre. La aplicación agrega el parámetro de estado al cuerpo de la respuesta.El valor por defecto es
false. -
Bandera que indica si el cuerpo de la respuesta debe estar en el formato prettyprint.
El valor por defecto es
false.Impresión bonita
Respuestas
-
Vale
Ocultar atributos de respuesta Mostrar los atributos de respuesta Objeto
-
Filtros que examinan texto un carácter a la vez y realizan operaciones de filtrado.
Uno de: Filtro que elimina los elementos HTML.
Filtro que procesa texto normalizado con el Normalizador ICU. Se basa en el Filtro de caracteres ICUNormalizer2de Lucene.
Filtro de caracteres ICUNormalizer2 Filtro que aplica asignaciones de normalización que se especifican a los caracteres.
Ocultar atributos Mostrar atributos
-
Lista de asignaciones separadas por comas. Una asignación indica que un carácter o grupo de caracteres debe sustituirse por otro, utilizando el siguiente formato:
<original> : <replacement>. -
Etiqueta legible por humanos que identifica este tipo de filtro de caracteres.
El valor es
mapping.
Un filtro que reemplaza las instancias de un separador de ancho cero por un espacio ordinario. Está basado en el filtro PersianCharFilter de Lucene.
PersianCharFilter -
-
Nombre legible por humanos que identifica el analizador personalizado. Los nombres deben ser únicos dentro de un índice y no deben comenzar con ninguna de las siguientes cadenas:
lucene.builtin.mongodb.
-
Filtro que realiza operaciones tales como:
Stemming, que reduce palabras relacionadas, como "talking", "talked" y "talks", a su palabra raíz "talk".
La restricción, la eliminación de información sensible de documentos públicos.
Cualquiera de: asciiFoldingobjeto daitchMokotoffSoundexobjeto objeto edgeGram ingles posesivoobjeto flattenGraphobjeto icuFoldingobjeto icuNormalizerobjeto kStemmingobjeto longitudobjeto minúsculasobjeto nGramobjeto porterStemmingobjeto regexobjeto invertirobjeto shingleobjeto snowballStemming <etiquetasde título class=""> objeto </ etiquetas de título> spanishPluralStemmingobjeto objeto de stempel stopwordobjeto recortarobjeto objeto wordDelimiterGraphFiltro que convierte los caracteres Unicode alfabéticos, numéricos y simbólicos que no se encuentran en el bloque Unicode latino básico en sus equivalentes ASCII, si están disponibles.
Bloque Unicode latino básico Ocultar atributos Mostrar atributos
-
Valor que indica si se debe incluir u omitir los tokens originales en la salida del filtro de tokens.
Elija
includesi desea admitir consultas tanto en los tokens originales como en los formularios convertidos.Elija
omitsi desea consultar solo las formas convertidas de los tokens originales.Los valores son
omitoinclude. El valor por defecto esomit. -
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
asciiFolding.
Filtro que crea tokens para palabras que suenan igual basado en el algoritmo fonético Daitch-Mokotoff Soundex. Este filtro puede generar varias codificaciones para cada entrada, donde cada token codificado es un número de 6 dígitos.
NOTA: No utilices el filtro de tokens de
daitchMokotoffSoundexen:-Definiciones de mapeo de sinónimos o autocompletar
- Operadores donde la opción fuzzy está activada. Atlas Search admite la opción fuzzy solo para los operadores autocompletado, término y texto.
Fonética Daitch-Mokotoff Soundex... Ocultar atributos Mostrar atributos
-
Valor que indica si se debe incluir u omitir los tokens originales en la salida del filtro de tokens.
Elija
includesi desea admitir consultas tanto en los tokens originales como en los formularios convertidos.Elija
omitsi desea consultar solo las formas convertidas de los tokens originales.Los valores son
omitoinclude. El valor por defecto esinclude. -
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
daitchMokotoffSoundex.
Filtro que divide la entrada desde el lado izquierdo, o «borde», de una entrada de texto en n-gramas de tamaños configurados. No se puede utilizar este filtro de tokens en las definiciones de mapeo de sinónimos o de autocompletado.
Ocultar atributos Mostrar atributos
-
Valor que especifica la longitud máxima de los n-grams generados. Este valor debe ser mayor o igual a
minGram. -
Valor que especifica la longitud mínima de los n-gramas generados. Este valor debe ser menor o igual a
maxGram. -
Valor que indica si se deben indexar tokens más cortos que
minGramo más largos quemaxGram.Los valores son
omitoinclude. El valor por defecto esomit. -
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
edgeGram.
Filtro que remueve posesivos (finales 's) de las palabras.
Filtro que transforma un grafo de filtro de tokens, como el grafo de filtro de tokens que produce el filtro de tokens
wordDelimiterGraph, en una forma plana adecuada para la indexación.Filtro que aplica la conversión de caracteres del Informe Técnico de Unicode n.º30.
Informe técnico Unicode nº30 Filtro que normaliza los tokens usando un modo estándar de normalización Unicode.
Unicode Normalization Mode (Modo de normalización Unicode) Filtro que combina la derivación algorítmica con un diccionario incorporado para el idioma inglés para derivar palabras.
Filtro que elimina los tokens demasiado cortos o demasiado largos.
Ocultar atributos Mostrar atributos
-
Número que especifica la longitud máxima de un token. El valor debe ser mayor o igual a min.
El valor por defecto es
255. -
Número que especifica la longitud mínima de un token. Este valor debe ser menor o igual al máximo.
El valor por defecto es
0. -
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
length.
Filtro que normaliza el texto del token a minúsculas.
Filtro que tokeniza la entrada en n-gramas de tamaños configurados. No se puede utilizar este filtro de tokens en las definiciones de mapeo de sinónimos o de autocompletado.
Ocultar atributos Mostrar atributos
-
Valor que especifica la longitud máxima de los n-grams generados. Este valor debe ser mayor o igual a
minGram. -
Valor que especifica la longitud mínima de los n-gramas generados. Este valor debe ser menor o igual a
maxGram. -
Valor que indica si se deben indexar tokens más cortos que
minGramo más largos quemaxGram.Los valores son
omitoinclude. El valor por defecto esomit. -
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
nGram.
Filtro que utiliza el algoritmo de stemming porter para remover los sufijos morfológicos e inflexionales comunes de las palabras en inglés. Espera texto en minúscula y no funciona como se espera para texto en mayúscula.
Filtro que aplica una expresión regular a cada token, reemplazando las coincidencias con una cadena especificada.
Ocultar atributos Mostrar atributos
-
Valor que indica si se debe reemplazar únicamente el primer patrón coincidente o todos los patrones coincidentes.
Los valores son
allofirst. -
Patrón de expresión regular para aplicar a cada token.
-
Cadena de reemplazo para sustituir dondequiera que aparezca un patrón coincidente.
-
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
regex.
Filtro que invierte cada token de string.
Filtro que construye "shingles" (n-gramas de tokens) a partir de una serie de tokens. No se puede utilizar este filtro de tokens en las definiciones de mapeo de sinónimos o de autocompletado.
Ocultar atributos Mostrar atributos
-
Valor que especifica el número máximo de fichas por tejuelo. Este valor debe ser mayor o igual a
minShingleSize. -
Valor que especifica el número mínimo de tokens por fragmento. Este valor debe ser menor o igual a
maxShingleSize. -
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
shingle.
Filtro que deriva tokens utilizando un stemmer generado por Snowball.
Stemmers generados por Snowball Ocultar atributos Mostrar atributos
-
Stemmer generado por Snowball para usar.
Los valores son
arabic,armenian,basque,catalan,danish,dutch,english,finnish,french,german,german2,hungarian,irish,italian,kp,lithuanian,lovins,norwegian,porter,portuguese,romanian,russian,spanish,swedishoturkish. -
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
snowballStemming.
Filtro que elimina la raíz de las palabras pluralizadas en español. Espera texto en minúsculas.
filtro que utiliza la tabla por defecto del stemmer de Polaco de Lucene para identificar la raíz de la palabra en lenguaje. Espera texto en minúsculas.
Tabla de sufijos polaca por defecto Filtro que remueve los tokens que corresponden a las palabras irrelevantes especificadas. Este filtro de token no analiza las stop words que se especifiquen.
Ocultar atributos Mostrar atributos
-
Bandera que indica si se debe ignorar el caso de las palabras de detención al filtrar los tokens a remover.
El valor por defecto es
true. -
Las palabras vacías que corresponden a los tokens a remover. El valor debe ser una o más palabras vacías.
-
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
stopword.
Filtro que recorta los espacios en blanco al principio y al final de los tokens.
Filtro que divide los tokens en subtokens según reglas configuradas.
Ocultar atributos Mostrar atributos
-
Objeto que contiene las reglas que determinan cómo dividir palabras en subpalabras.
Ocultar atributos de delimiterOptions Mostrar atributos delimiterOptions Objeto
-
Indicador que indica si se deben concatenar ejecuciones.
El valor por defecto es
false. -
Indicador que señala si se deben concatenar secuencias de sub-números.
El valor por defecto es
false. -
Indicador que indica si se deben concatenar series de subpalabras.
El valor por defecto es
false. -
Indicador que indica si se deben dividir los tokens según subnúmeros. Por ejemplo, si es
true, esta opción divide100-2en100y2.El valor por defecto es
true. -
Indicador que señala si se deben dividir los tokens en función de subpalabras.
El valor por defecto es
true. -
Indicador que señala si se omiten los tokens que tienen el atributo
keywordestablecido comotrue.El valor por defecto es
false. -
Indicador que indica si se deben generar tokens de las palabras originales.
El valor por defecto es
true. -
Indicador que indica si se deben dividir los tokens según las transiciones de mayúsculas y minúsculas.
El valor por defecto es
true. -
Bandera que indica si se deben dividir los tokens en función de las transiciones de letra a número.
El valor por defecto es
true. -
Marca que indica si se deben remover los posesivos finales de cada subpalabra.
El valor por defecto es
true.
-
-
Objeto que contiene opciones para palabras protegidas.
Ocultar los atributos de palabras protegidas Mostrar atributos protectedWords Objeto
-
Etiqueta legible por humanos que identifica este tipo de filtro de token.
El valor es
wordDelimiterGraph.
tokenizador
Objeto Requerido El tokenizador que desea utilizar para crear tokens. Los tokens determinan cómo Atlas Search divide el texto en fragmentos independientes para su indexación.
Uno de: Tokenizador que divide la entrada desde el lado izquierdo o "borde" de una entrada de texto en n-gramas de tamaños dados. No puedes utilizar el tokenizador edgeGram en las definiciones de mapeo de sinónimos o autocompletado.
Ocultar atributos Mostrar atributos
-
Caracteres que se incluirán en el token más largo que crea Atlas Search.
-
Caracteres que se deben incluir en el token más corto que crea Atlas Search.
-
etiqueta legible por humanos que identifica este tipo de tokenizador.
El valor es
edgeGram.
Tokenizador que combina toda la entrada en un único token.
tokenizador que divide la entrada en fragmentos de texto, o "n-grams", de los tamaños dados. No se puede utilizar el tokenizador nGram en la definición de sinonimia o autocompletado.
Ocultar atributos Mostrar atributos
-
Caracteres que se incluirán en el token más largo que crea Atlas Search.
-
Caracteres que se deben incluir en el token más corto que crea Atlas Search.
-
etiqueta legible por humanos que identifica este tipo de tokenizador.
Tokenizador que utiliza un patrón de expresión regular para extraer fichas.
Ocultar atributos Mostrar atributos
-
Índice del grupo de caracteres dentro de la expresión coincidente que se extraerá en tokens. Use
0para extraer todos los grupos de caracteres. -
Expresión regular para coincidir.
-
etiqueta legible por humanos que identifica este tipo de tokenizador.
El valor es
regexCaptureGroup.
Tokenizador que divide los tokens utilizando un delimitador basado en expresiones regulares.
Tokenizador que divide tokens en función de las reglas de corte de palabras del algoritmo de segmentación de texto Unicode.
Algo de segmentación de texto Unicode... Ocultar atributos Mostrar atributos
-
Número máximo de caracteres en un solo token. Los tokens que excedan esta longitud se dividirán en varios tokens en esa longitud.
El valor por defecto es
255. -
etiqueta legible por humanos que identifica este tipo de tokenizador.
El valor es
standard.
Tokenizador que crea tokens a partir de URLs y direcciones de correo electrónico. Aunque este tokenizador utiliza reglas de separación de palabras del algoritmo de Segmentación de texto Unicode, recomendamos usarlo únicamente cuando el valor del campo indexado incluya URLs y direcciones de correo electrónico. Para los campos que no incluyen URLs ni direcciones de correo electrónico, utiliza el tokenizador estándar para crear tokens basados en reglas de separación de palabras.
Algo de segmentación de texto Unicode... Ocultar atributos Mostrar atributos
-
Número máximo de caracteres en un solo token. Los tokens que excedan esta longitud se dividirán en varios tokens en esa longitud.
El valor por defecto es
255. -
etiqueta legible por humanos que identifica este tipo de tokenizador.
El valor es
uaxUrlEmail.
Tokenizador que crea tokens en función de la aparición de espacios en blanco entre palabras.
Ocultar atributos Mostrar atributos
-
Número máximo de caracteres en un solo token. Los tokens que excedan esta longitud se dividirán en varios tokens en esa longitud.
El valor por defecto es
255. -
etiqueta legible por humanos que identifica este tipo de tokenizador.
El valor es
whitespace.
-
-
-
No se encontró.
Ocultar atributos de respuesta Mostrar los atributos de respuesta Objeto
-
Detalle de solicitud incorrecta.
Ocultar el atributo badRequestDetail Mostrar el atributo badRequestDetail Objeto
-
Describe todas las infracciones en una solicitud de cliente.
-
-
Describe las condiciones o razones específicas que causan cada tipo de error.
-
Código de estado HTTP devuelto con este error.
Documentación externa -
Código de error de aplicación devuelto con este error.
-
Parámetros utilizados para proporcionar más información sobre el error.
-
El mensaje de error de la aplicación se devuelve con este error.
-
-
Error interno del servidor.
Ocultar atributos de respuesta Mostrar los atributos de respuesta Objeto
-
Detalle de solicitud incorrecta.
Ocultar el atributo badRequestDetail Mostrar el atributo badRequestDetail Objeto
-
Describe todas las infracciones en una solicitud de cliente.
-
-
Describe las condiciones o razones específicas que causan cada tipo de error.
-
Código de estado HTTP devuelto con este error.
Documentación externa -
Código de error de aplicación devuelto con este error.
-
Parámetros utilizados para proporcionar más información sobre el error.
-
El mensaje de error de la aplicación se devuelve con este error.
-
curl \
--request GET 'https://cloud.mongodb.com/api/atlas/v1.0/groups/32b6e34b3d91647abb20e7b8/clusters/{clusterName}/fts/analyzers' \
--header "Authorization: Bearer $ACCESS_TOKEN"
[
{
"charFilters": [
{
"ignoredTags": [
"string"
],
"type": "htmlStrip"
}
],
"name": "string",
"tokenFilters": [
{
"originalTokens": "omit",
"type": "asciiFolding"
}
],
"tokenizer": {
"maxGram": 42,
"minGram": 42,
"type": "edgeGram"
}
}
]
{
"error": 404,
"detail": "(This is just an example, the exception may not be related to this endpoint) Cannot find resource AWS",
"reason": "Not Found",
"errorCode": "RESOURCE_NOT_FOUND"
}
{
"error": 500,
"detail": "(This is just an example, the exception may not be related to this endpoint)",
"reason": "Internal Server Error",
"errorCode": "UNEXPECTED_ERROR"
}