tokenizer standard analyzers elasticsearch

analyzers - elasticsearch standard tokenizer



¿Es posible establecer un analizador personalizado para no tokenizar en elasticsearch? (1)

Quiero tratar el campo de uno de los ítems indexados como una gran cadena aunque tenga espacio en blanco. Sé cómo hacer esto configurando un campo no personalizado para que no se analice, pero ¿qué tokenizador puede usar a través de un analizador personalizado?

Los únicos elementos de tokenizer que veo en elasticsearch.org son:

  • Borde
  • NGram
  • Palabra clave
  • Carta
  • Minúsculo
  • NGram
  • Estándar
  • Espacio en blanco
  • Patrón
  • Correo electrónico UAX URL
  • Camino
  • Jerarquía

Ninguno de estos hace lo que yo quiero.


El tokenizador de palabras clave es lo que estás buscando. Si no funciona para usted por alguna razón, podría compartir su analizador personalizado, ejemplo de la entrada que no funciona y salida deseada.