您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. IKAnalyzer3.2.8 源码

  2. IKAnalyzer3.2.8分词器 源码,用户lucene索引开发中
  3. 所属分类:Web开发

    • 发布日期:2012-01-07
    • 文件大小:1mb
    • 提供者:feizhang666
  1. 庖丁解牛分词器源码+jar包

  2. 庖丁解牛分词器源码+jar包 目前最好用的中文分词工具 采用细粒度分词
  3. 所属分类:Java

    • 发布日期:2012-07-26
    • 文件大小:2mb
    • 提供者:sljjyy
  1. IK Analyzer 2012FF 分词器源码

  2. IK 分词器源码 此版本IK Analyzer 2012FF版,支持4Lucene.0以上 , 适合大家学习,开发自己的分词器,或参与该项目开发
  3. 所属分类:Java

    • 发布日期:2013-03-13
    • 文件大小:1mb
    • 提供者:tanggaohong
  1. Ik分词器源码jar包

  2. Ik分词器的源码,jar包,导入即可使用,常用到与持久层对句子进行分词处理
  3. 所属分类:Java

    • 发布日期:2014-05-19
    • 文件大小:1mb
    • 提供者:lx91216
  1. paoding分词器源码

  2. paoding分词器源码,lucene适配开源分词器
  3. 所属分类:Java

    • 发布日期:2014-07-10
    • 文件大小:5mb
    • 提供者:sta2011
  1. 中文分词器(mmseg4j + luncene5.X)源码+jar包

  2. 中文分词器 mmseg4j luncene5.X 源码 jar包
  3. 所属分类:Java

    • 发布日期:2015-11-11
    • 文件大小:63kb
    • 提供者:u012720534
  1. ik分词器源码

  2. ik分词器源码
  3. 所属分类:其它

    • 发布日期:2016-03-08
    • 文件大小:1mb
    • 提供者:u010787396
  1. 多个版本ik分词器源码

  2. 多个版本ik分词器源码
  3. 所属分类:Java

    • 发布日期:2016-11-02
    • 文件大小:16mb
    • 提供者:zhangfeng5120
  1. IK Analyzer 2012FF 分词器源码

  2. IK 分词器源码 此版本IK Analyzer 2012FF版,支持4Lucene.0以上 , 适合大家学习,开发自己的分词器,或参与该项目开发
  3. 所属分类:Web开发

    • 发布日期:2017-01-24
    • 文件大小:1mb
    • 提供者:lirenzuo
  1. 多个版本ik分词器源码

  2. 多个版本ik分词器源码
  3. 所属分类:Java

    • 发布日期:2017-02-13
    • 文件大小:16mb
    • 提供者:u013761206
  1. solr5.2.1之IK分词器

  2. 网上其他关于IK分词器的介绍一般都是从文本文件中加载词库,我根据网上下载的ik分词器jar包,反编译后,修改了源码,支持从数据库定时增量导入词库。同时也支持从文本文件中导入词库,但没有定时增量导入的功能。
  3. 所属分类:Java

    • 发布日期:2017-05-14
    • 文件大小:1mb
    • 提供者:zhaocuit
  1. IK_Analyzer_source分词器源码2012ff.rar

  2. ik分词器源码,可方便自行进行修改以方便自己业务的扩张
  3. 所属分类:Java

    • 发布日期:2017-10-30
    • 文件大小:1mb
    • 提供者:lietom
  1. solr5的ik中文分词器源码

  2. solr5的ik中文分词器源码,解压后需要自己打包成jar包
  3. 所属分类:Java

    • 发布日期:2017-12-21
    • 文件大小:2mb
    • 提供者:pengsidong
  1. ik中文分词器,solr5版

  2. ik中文分词器,solr5版本的分词器,使用教程百度有,这个是源码版
  3. 所属分类:Delphi

    • 发布日期:2018-04-13
    • 文件大小:3mb
    • 提供者:qq_21329945
  1. IK分词器源码

  2. IK分词器源码,可以研究IK分词器原理,也可以修改源码达到自己的业务需求。
  3. 所属分类:Java

    • 发布日期:2018-10-29
    • 文件大小:1mb
    • 提供者:gxl___
  1. IK分词器源码

  2. IK分词器源码
  3. 所属分类:Java

    • 发布日期:2017-03-19
    • 文件大小:1mb
    • 提供者:gcy910219
  1. Friso中文分词器 v1.6.4

  2. 为您提供Friso中文分词器下载,Friso 是使用 c 语言开发的一款开源的高性能中文分词器,使用流行的mmseg算法实现。完全基于模块化设计和实现,可以很方便的植入其他程序中, 例如:MySQL,PHP,并且提供了php5,php7,ocaml,lua的插件实现。源码无需修改就能在各种平台下编译使用,加载完 20 万的词条,内存占用稳定为 14.5M。Friso核心功能:中文分词:mmseg算法 + Friso 独创的优化算法
  3. 所属分类:其它

  1. ik4solr4.3:ik分词器for Solr4.3,支持4.4,二进制不用修改也支持4.6,不放心可以改下POM中的依赖-源码

  2. ik4solr4.3(不再维护,未来可能删除:请去 ) solr4.3的ik分词器(改了一些smart分词算法。使用maven编译),隔壁有我写的包 支持从solr自己的环境中获取自定义词典(使用solr的ResourceLoader,只需要把字典文件放到对应索引的conf目录里) 增加一个定时更新类 在IK中不建议用smart分词,因为它并不怎么准,ansj的分词效果明显更好。 这是一次新的改变,如果你还用旧的,请注意更新了,由于曾经疏忽,旧版本并发下有问题 推荐可以结合另外一个动态使用 =
  3. 所属分类:其它

  1. Segmentor:使用北大​​-富士通语料库,LSTM网络的中文分词系统-源码

  2. 分割器 使用北大​​-富士通语料库,LSTM网络的中文分词系统 在书面语中分词效果不错。 “十三五”规划中规模:到2020年中国公民的科学素质要达到10%以上这个目标。之所以设定10%的目标,是因为一个国家想要进入创新型国家行列,公众具有较高的科学素质的比例至少达到10%。 “十三五”规划中的重点目标:到2020年中国公民的科学素质要达到10%以上这个目标。之所以设定10%的目标,是因为一个国家想要进入创新型国家行列,公众具有较早的科学素质的比例至少达到10%。
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:112mb
    • 提供者:weixin_42161497
  1. 去令牌器-源码

  2. Golang文字分词器 分支 状态 覆盖范围 掌握 import ( "fmt" "github.com/marcelocorreia/go-tokenizer" ) func main () { t := tokenizer . New () tokens := t . Tokenize ( "I believe life is an intelligent thing: that things aren't random." ) fmt . Pri
  3. 所属分类:其它

« 12 3 4 5 6 7 8 »