您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer中文分词器V2012_FF使用手册

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。
  3. 所属分类:Web开发

    • 发布日期:2015-05-28
    • 文件大小:841728
    • 提供者:liyang0410
  1. IK中文分词器

  2. IK中文分词工具,可用于solr,elasticsearch分词插件
  3. 所属分类:Java

    • 发布日期:2015-06-11
    • 文件大小:2097152
    • 提供者:qq_19244267
  1. IK分词器,中文检索最好的分词器

  2. IK Analyzer 是一个开源的,基亍 java 语言开发的轻量级的中文分词工具包。从 2006 年 12 月推出 1.0 版开始, IKAnalyzer 已经推出了 4 个大版本。最初,它是以开源项目 Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。从 3.0 版本开始, IK 发展为面向 Java 的公用分词组件,独立亍 Lucene 项目,同时提供了对 Lucene 的默认 优化实现。在 2012 版本中,IK 实现了简单的分词歧义排除算法,标志着 IK 分词器
  3. 所属分类:Java

    • 发布日期:2015-12-28
    • 文件大小:2097152
    • 提供者:javaxxs
  1. IK 分词器 jar 1.7

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了3个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。新版本的IK Analyzer 3.0则发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。
  3. 所属分类:Java

    • 发布日期:2016-01-25
    • 文件大小:68608
    • 提供者:yangheqingvip
  1. ansj分词工具所需jar包(最新)

  2. 这是目前来说最新的ansj分词jar包,导入即可使用
  3. 所属分类:Java

    • 发布日期:2016-03-02
    • 文件大小:6291456
    • 提供者:tx_smile
  1. 使用IK Analyzer实现中文分词之Java实现

  2. IK Analyzer 是一个开源的,基于 java 语言开发的轻量级的中文分词工具包。从 2006年 12 月推出 1.0 版开始, IKAnalyzer 已经推出了 4 个大版本。最初,它是以开源项目Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件。 从 3.0 版本开始,IK 发展为面向 Java 的公用分词组件,独立于 Lucene 项目,同时提供了对 Lucene 的默认优化实现。 在 2012 版本中,IK 实现了简单的分词歧义排除算法,标志着 IK 分词器从单
  3. 所属分类:Java

    • 发布日期:2017-03-29
    • 文件大小:3145728
    • 提供者:kurbanjanmemet
  1. 中文分词工具

  2. 中文分词处理工具
  3. 所属分类:Java

    • 发布日期:2017-08-18
    • 文件大小:470016
    • 提供者:weixin_39890553
  1. 中文分词词库

  2. 分词词库字典,主要为百度中文分词,主要用于中文jieba分词的自定义词典,或者其他分词工具的自定义词典等。
  3. 所属分类:算法与数据结构

    • 发布日期:2017-09-20
    • 文件大小:8388608
    • 提供者:qq_39308905
  1. 可以通过该工具,对盘古分词的词库进行升级,添加自己想要的词。。。

  2. 可以通过该工具,对盘古分词的词库进行升级,添加自己想要的词
  3. 所属分类:C#

    • 发布日期:2017-11-09
    • 文件大小:1048576
    • 提供者:fucktoome
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:嵌入式

    • 发布日期:2009-02-23
    • 文件大小:9437184
    • 提供者:zhangshibin8500
  1. IK Analyzer中文分词器

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。
  3. 所属分类:Java

    • 发布日期:2018-06-05
    • 文件大小:2097152
    • 提供者:qq_37725650
  1. 盘古分词 工具

  2. 盘古分词 简介: 盘古分词 是由eaglet 开发的一款基于字典的中英文分词组件 主要功能: 中英文分词,未登录词识别,多元歧义自动识别,全角字符识别能力 主要性能指标: 分词准确度:90%以上 处理速度: 300-600KBytes/s Core Duo 1.8GHz 用于测试的句子: 长春市长春节致词 长春市长春药店 IBM的技术和服务都不错 张三在一月份工作会议上说的确实在理 于北京时间5月10日举行运动会 我的和服务必在明天做好
  3. 所属分类:算法与数据结构

    • 发布日期:2018-06-22
    • 文件大小:193536
    • 提供者:lingxuan413
  1. 中文分词词库汇总

  2. 汇总的中文分词词库,分为两个目录: 1、中文分词词库汇总。包含10个词库,文件名字表示里面词的数量(单位是千),如150.txt,表示包含15万词。 2、主流分词工具的词库。包含word/jieba/mmseg/IK分词工具的最近词库。 注意:分词时,不一定是词库中的词越多,效果越好。
  3. 所属分类:其它

    • 发布日期:2018-08-09
    • 文件大小:10485760
    • 提供者:zhaohuakai
  1. IKAnalyzer分词器2012使用手册

  2. IK Analyzer是一个开源的,基亍java 语言开发的轻量级的中文分词工具包。从2006年 12 月推出 1.0 版开始, IKAnalyzer 已经推出了 4 个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0 版本开始,IK发展为面向 Java 的公用分词组件,独立亍 Lucene 项目,同时提供了对 Lucene 的默认优化实现。
  3. 所属分类:机器学习

    • 发布日期:2018-08-23
    • 文件大小:797696
    • 提供者:boolean_show
  1. 中文分词器

  2. IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。可用于solr和Lucene
  3. 所属分类:Java

    • 发布日期:2018-10-16
    • 文件大小:2097152
    • 提供者:wang1171405487
  1. IKAnalyzer中文分词器

  2. IKAnalyzer分词器,是由java编写的中文分词工具包,目前在lucene以及solr中用的比较多,采用了特有的“正向迭代最细粒度切分算法“,支持细粒度和智能分词两种切分模式
  3. 所属分类:Java

    • 发布日期:2018-10-27
    • 文件大小:2097152
    • 提供者:qq_38714963
  1. IK Analyzer 开源中文分词 2012 u6.zip

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开 始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本中,IK实现了简单的分词 歧义排除算法,标志着IK分词器从单纯的词典分词向模拟语义分词衍化。 IK Analyz
  3. 所属分类:其它

    • 发布日期:2019-07-06
    • 文件大小:2097152
    • 提供者:weixin_39840650
  1. IKAnalyzer中文分词.rar

  2. IK Analyzer是什么呢,就是我们需要的这个工具,是基于java开发的轻量级的中文分词工具包。它是以开源项目Luence为主体的,结合词典分词和文法分析算法的中文分词组件。 IKAnalyzer继承Lucene的Analyzer抽象类,使用IKAnalyzer和Lucene自带的分析器方法一样,将Analyzer测试代码改为IKAnalyzer测试中文分词效果。 如果使用中文分词器ik-analyzer,就需要在索引和搜索程序中使用一致的分词器:IK-analyzer。
  3. 所属分类:互联网

    • 发布日期:2020-06-06
    • 文件大小:1048576
    • 提供者:zhouth94
  1. jieba 0.42.1中文分词

  2. Python Jieba中文分词工具实现分词功能
  3. 所属分类:机器学习

    • 发布日期:2020-06-30
    • 文件大小:55574528
    • 提供者:qq_40395874
  1. analysis-ik中文分词器

  2. IK Analyzer是一个开源的,基于Java语言开发的轻量级的中文分词工具包; 最初,它是以开源项目Luence 为应用主体的,结合词典分词和文法分析算法的中文分词组件;从 3.0 版本开始,IK 发展为面向 Java 的公用分词组件,独立亍 Lucene 项目
  3. 所属分类:互联网

    • 发布日期:2020-06-30
    • 文件大小:4194304
    • 提供者:fdfd121231
« 1 2 3 4 5 67 8 9 10 11 ... 40 »