前言:首先有这样一个需求,需要统计一篇10000字的文章,需要统计里面哪些词出现的频率比较高,这里面比较重要的是如何对文章中的一段话进行分词,例如“北京是×××的首都”,“北京”,“×××”,“中华”
下载 下载和elaticsearch对应版本的ik分词https://github.com/medcl/elasticsearch-analysis-ik/releases 安装 elasticsea
简介:当前讲解的 IK分词器 包的 version 为1.8。一、下载zip包。 下面有附件链接【ik-安装包.zip】,下载即可。