NIUCLOUD是一款SaaS管理后台框架多应用插件+云编译。上千名开发者、服务商正在积极拥抱开发者生态。欢迎开发者们免费入驻。一起助力发展! 广告
# Lowercase Tokenizer (小写分词器) **`lowercase`**** tokenizer**(小写分词器),类似于  **[`letter` tokenizer](https://www.elastic.co/guide/en/elasticsearch/reference/5.4/analysis-letter-tokenizer.html "Letter Tokenizer") **,遇到非字母时分割文本,并将所有分割后的词元转为小写。功能上等同于 ** [`letter` tokenizer](https://www.elastic.co/guide/en/elasticsearch/reference/5.4/analysis-letter-tokenizer.html "Letter Tokenizer")** +  **[`lowercase` token filter](https://www.elastic.co/guide/en/elasticsearch/reference/5.4/analysis-lowercase-tokenfilter.html "Lowercase Token Filter")** ,但是由于单次执行了所有步骤,所以效率更高。 ## **输出示例** | `POST _analyze` `{` `"tokenizer"``: ``"lowercase"``,` `"text"``: ``"The 2 QUICK Brown-Foxes jumped over the lazy dog's bone."` `}` | 上面的句子会生成如下的词元: | `[ the, quick, brown, foxes, jumped, over, the, lazy, dog, s, bone ]` | ## **配置** **`lowercase`**** tokenizer**(小写分词器) 不支持配置。