结巴分词器——jieba-analysis

支持三种分词模式:

        全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;

        精确模式,试图将句子最精确地切开,适合文本分析;

        搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。

jar包(pom.xml文件):

# 当前稳定版本
<dependency>
  <groupId>com.huaban</groupId>
  <artifactId>jieba-analysis</artifactId>
  <version>1.0.2</version>
</dependency>
# 当前快照版本
<dependency>
  <groupId>com.huaban</groupId>
  <artifactId>jieba-analysis</artifactId>
  <version>1.0.3a</version>
</dependency>

java简单实现:

    public static void  main(String[] args) throws IOException {
        String text = "前任拉甘送苏宁首败落后恒大6分争冠难了";
        JiebaSegmenter segmenter = new JiebaSegmenter();
        System.out.println(segmenter.sentenceProcess(text));
    }

运行结果:

[前任, 拉甘送, 苏宁, 首败, 落后, 恒大, 6, 分, 争冠, 难, 了]