您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文分词组件带例子~~~~~~~~

  2. 中文分词组件带例子,中文分词组件带例子,中文分词组件带例子,中文分词组件带例子,中文分词组件带例子,
  3. 所属分类:Java

    • 发布日期:2008-10-21
    • 文件大小:5242880
    • 提供者:imqew
  1. 基于中文的Shuzhen分词器1.1.4提供下载

  2. 此版本改进为:分词时采用了完全匹配方式(自命名的),也即将符合字典条目的词全部切分出来,在基于字典的分词中达到了“分无可分”的程度;分词时完全按照标准分词来进行,这样保证了在和一些高亮显示组件如highlighter一起使用时,能准确无误的将命中进行高亮显示,避免了Google高亮显示的 Bug;配置文件的存放支持相对路径,这样更灵活,更方便应用在一些虚拟机上;字典条目支持导入到内存中,也就是在原有JDBM字典系统的基础上增加内存字典系统,且能方便自定义导入多少条目到内存中,能自定义使用内存还
  3. 所属分类:专业指导

    • 发布日期:2008-10-22
    • 文件大小:833536
    • 提供者:yuanjian0211
  1. 自然语言分词程序源码

  2. 哈工大ITP Java 实现的自然语言 中文分词 程序源码
  3. 所属分类:Java

    • 发布日期:2014-08-23
    • 文件大小:913408
    • 提供者:azurezk
  1. 中文分词器

  2. 1.基于 trie 树结构实现高效词图扫描 2.生成所有切词可能的有向无环图 DAG 3.采用动态规划算法计算最佳切词组合 4.基于 HMM 模型,采用 Viterbi (维特比)算法实现未登录词识别
  3. 所属分类:Java

    • 发布日期:2014-10-24
    • 文件大小:4194304
    • 提供者:bany_
  1. 中科院分词器:ICTCLAS50

  2. 中科院中文分词器:ICTCLAS50_Windows_32_JNI。分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。
  3. 所属分类:其它

    • 发布日期:2014-11-12
    • 文件大小:8388608
    • 提供者:yangyao_iphone
  1. ICA中文分词软件

  2. 采用了多子处理器分析模式,支持:英文字母(IP地址、Email、URL)、数字(日期,常用中文数量词,罗马数字,科学计数法),中文词汇(姓名、地名处理)等分词处理。
  3. 所属分类:其它

    • 发布日期:2014-11-16
    • 文件大小:6291456
    • 提供者:u010608070
  1. 庖丁解牛分词工具

  2. 庖丁解牛 --文本分类分词工具完全基于lucene的中文分词系统,它就是重新建了一个analyzer,叫做PaodingAnalyzer,这个analyer的核心任务就是生成一个可以切词TokenStream
  3. 所属分类:其它

    • 发布日期:2014-11-17
    • 文件大小:5242880
    • 提供者:forwhiz
  1. 最新版本的IK分词器

  2. 最新版本的IK分词器,支持自定义词库,支持配置中文分词。
  3. 所属分类:Java

    • 发布日期:2014-11-19
    • 文件大小:1048576
    • 提供者:jueduei
  1. ktdict lucene.net 中文分词器

  2. ktdict 中文分词器 一个开源的C#.net编写的,分词准确率大于90%,分词速度非常快,支持人名识别,词性标注,词频判断,未登录词识别,字典管理,Lucene.net接口
  3. 所属分类:C#

    • 发布日期:2008-10-30
    • 文件大小:3145728
    • 提供者:zhengdjin
  1. 中文语句分词C++程序

  2. 中文分词C++程序,建立了词典,采用正向匹配算法实现
  3. 所属分类:C++

    • 发布日期:2015-01-29
    • 文件大小:1048576
    • 提供者:zkp19920326
  1. 分词程序程序演示分词程序程序演示分词程序程序演示分词程序程序演示分词程序程序演示

  2. 本程序采用较合理的分词算法,并结合十五万词容量的词库,可以对综合性文本进行高精度的切分。
  3. 所属分类:其它

    • 发布日期:2008-11-03
    • 文件大小:1048576
    • 提供者:lpwindnjnu
  1. 中文分词资料!

  2. 基于文本的分词工具
  3. 所属分类:其它

    • 发布日期:2015-03-29
    • 文件大小:629760
    • 提供者:qq_23188275
  1. sphinx 中英文分词检索介绍

  2. sphinx 中英文分词快速检索 大数据快速搜索
  3. 所属分类:PHP

    • 发布日期:2015-06-16
    • 文件大小:585728
    • 提供者:wen_qiang2012
  1. 中文分词工具

  2. Lucene 的paoding中文分词工具类,希望对大家有帮助
  3. 所属分类:网络基础

    • 发布日期:2015-06-23
    • 文件大小:2097152
    • 提供者:qyrzlx
  1. 中科院中文分词源代码

  2. NLPIR中文分词源代码是中科院研发的分词工具,ICTCLAS先改名为NLPIR。这个是分词源代码,下载后把路径更改为你自己的就可以运行了。
  3. 所属分类:Java

    • 发布日期:2015-07-02
    • 文件大小:11534336
    • 提供者:lipr86
  1. 中科院的分词系统

  2. 主要用于中文 分词 , 由中科院开发的分词系统,已经运行成功
  3. 所属分类:Java

    • 发布日期:2015-07-27
    • 文件大小:51380224
    • 提供者:chengxianghanxue
  1. 带词性标注的中文分词词典

  2. 人民日报统计出来的用于自然语言处理的中文词典
  3. 所属分类:专业指导

    • 发布日期:2015-07-28
    • 文件大小:641024
    • 提供者:kylelight
  1. 百度中文分词词库

  2. 分词词库是一个搜索引擎中非常重要的一部分,为基于词典分词的算法提供了分词依据。
  3. 所属分类:专业指导

    • 发布日期:2015-08-17
    • 文件大小:401408
    • 提供者:luo_can
  1. NLPIR分词、去停用词

  2. 整合 使用ICTCLAS2013(NlPIR) x64 的中文分词,分词的速度和效果都不错。然后就是对文本进行的去停用词以及特殊符号(哈工大停用词库)的去除,这些特殊符号还有标点符号,以及文本中夹杂的数字和字母会对分词的效果产生影响。eclipse GBK 编码
  3. 所属分类:互联网

  1. IK Analyzer2013中分分词jar包

  2. IK Analyzer是一款基于java语言编写的中文分词jar包,直接导入项目工程作为Library使用
  3. 所属分类:Android

    • 发布日期:2015-10-21
    • 文件大小:1048576
    • 提供者:sxw1900
« 1 2 ... 43 44 45 46 47 4849 50 »