结巴分词器——jieba-analysis
支持三种分词模式:
全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
精确模式,试图将句子最精确地切开,适合文本分析;
搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
jar包(pom.xml文件):
# 当前稳定版本
<dependency>
<groupId>com.huaban</groupId>
<artifactId>jieba-analysis</artifactId>
<version>1.0.2</version>
</dependency>
# 当前快照版本
<dependency>
<groupId>com.huaban</groupId>
<artifactId>jieba-analysis</artifactId>
<version>1.0.3a</version>
</dependency>
java简单实现:
public static void main(String[] args) throws IOException {
String text = "前任拉甘送苏宁首败落后恒大6分争冠难了";
JiebaSegmenter segmenter = new JiebaSegmenter();
System.out.println(segmenter.sentenceProcess(text));
}
运行结果:
[前任, 拉甘送, 苏宁, 首败, 落后, 恒大, 6, 分, 争冠, 难, 了]