您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ansj依赖包

  2. 这里面有两个jar包一个zip压缩包和一个java测试源码,一个是anjs3.7版本的jar包,tree-split-word依赖包,word2vec源码压缩包,java测试文件是网上找得测试源码。
  3. 所属分类:Java

    • 发布日期:2016-02-19
    • 文件大小:6291456
    • 提供者:zpzkitt
  1. 分词工具源码

  2. java分词工具源码
  3. 所属分类:Java

    • 发布日期:2016-08-09
    • 文件大小:24117248
    • 提供者:zzm848166546
  1. ansj5.1.1.rar (最新稳定版本_含源码)

  2. ansj5.1.1.rar (最新稳定版本_含源码)
  3. 所属分类:Java

    • 发布日期:2017-08-02
    • 文件大小:23068672
    • 提供者:wd153263008
  1. ansj源码下载

  2. 文本分析源码 中文分词(Chinese Word Segmentation) 指的是将一个汉字序列切分成一个一个单独的词。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。我们知道,在英文的行文中,单词之间是以空格作为自然分界符的,而中文只是字、句和段能通过明显的分界符来简单划界,唯独词没有一个形式上的分界符,虽然英文也同样存在短语的划分问题,不过在词这一层上,中文比之英文要复杂的多、困难的多。
  3. 所属分类:搜索引擎

    • 发布日期:2017-09-08
    • 文件大小:25165824
    • 提供者:z360901061100
  1. ansj源码分享

  2. ansj的源码,包含测试类,ansj的源码,包含测试类ansj的源码,包含测试类ansj的源码,包含测试类ansj的源码,包含测试类ansj的源码,包含测试类ansj的源码,包含测试类ansj的源码,包含测试类
  3. 所属分类:Java

    • 发布日期:2018-06-19
    • 文件大小:25165824
    • 提供者:qq_42488740
  1. ansj中文分词器源码

  2. 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上目前实现了.中文分词. 中文姓名识别 . 用户自定义词典,关键字提取,自动摘要,关键字标记等功能
  3. 所属分类:Java

    • 发布日期:2018-08-07
    • 文件大小:25165824
    • 提供者:qq_35240226
  1. Ansj分词工具包

  2. 资源内部含有:两个最新jar包,示例程序,以及本人的说明博客地址,希望能够对您有所帮助。 使用说明如下: 参考文档:http://blog.csdn.net/ZZh1301051836/article/details/79287963 用途1 新建项目——>将ansj_seg-5.1.5.jar、nlp-lang-1.7.7.jar导入项目中。即可使用。 用途2 示例程序 1.1 将程序源码导入到Myeclipse中 1.2 此时,程序中自带的jar包路径可能不正确,须将两个jar包删除
  3. 所属分类:Java

    • 发布日期:2018-02-08
    • 文件大小:150
    • 提供者:zzh1301051836
  1. ik4solr4.3:ik分词器for Solr4.3,支持4.4,二进制不用修改也支持4.6,不放心可以改下POM中的依赖-源码

  2. ik4solr4.3(不再维护,未来可能删除:请去 ) solr4.3的ik分词器(改了一些smart分词算法。使用maven编译),隔壁有我写的包 支持从solr自己的环境中获取自定义词典(使用solr的ResourceLoader,只需要把字典文件放到对应索引的conf目录里) 增加一个定时更新类 在IK中不建议用smart分词,因为它并不怎么准,ansj的分词效果明显更好。 这是一次新的改变,如果你还用旧的,请注意更新了,由于曾经疏忽,旧版本并发下有问题 推荐可以结合另外一个动态使用 =
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:1048576
    • 提供者:weixin_42168230
  1. ansj_seg:ansj分词.ict的真正的Java实现。分词效果速度都超过了开源版的ict。中文分词,人名识别,词性标注,用户自定义词典-源码

  2. Ansj中文分词 使用帮助 开发文档: , 摘要 这是一个基于n-Gram + CRF + HMM的中文分词的java实现。 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上。 目前实现了中文分词,中文姓名识别,用户自定义词典,关键字提取,自动摘要,关键字标记等功能。 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目。 专家 org.ansj ansj_seg
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:25165824
    • 提供者:weixin_42102401