您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 我收集的中文分词辞典(人工过滤,准确率86.8%)

  2. 花费了10天时间,进行过滤的中文分词。并对分词进行排序
  3. 所属分类:专业指导

    • 发布日期:2010-01-06
    • 文件大小:7mb
    • 提供者:wanglei6711
  1. 中科院开发的一个中文分词系统

  2. 中科院做的一个中文自动分词系统,是基于VC6.0,MFC对话框下的,对分词的效率及正确率都做了数据统计,对输入的中文语句进行自动分词及词性标注。对打开的待处理的中文文档,进行自动分词及词性标注,而且还将处理后保存到新的文档中!供进行自然语言处理研究的工作人员及学生学习参考!
  3. 所属分类:C++

  1. 中文自动分词&全文检索@统计工具(GBK版

  2. 本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体
  3. 所属分类:专业指导

    • 发布日期:2010-04-22
    • 文件大小:3mb
    • 提供者:lonewar
  1. 可训练的中文分词和词性标注系统

  2. 采用机器学习的方法进行自然语言处理,对中文进行分词和词性标注。分词采用crf模型,词性标注用hmm模型,解码算法为Vertibi算法。本系统使用java语言编写
  3. 所属分类:其它

    • 发布日期:2010-12-26
    • 文件大小:1mb
    • 提供者:dark666666
  1. 详细介绍中文分词算法的种类

  2. 本文致力于研究中文分词算法,通过分词算法对分 词的质量做出客观的判断和评估,从而为中文分词的进一步发展提供基础和方向
  3. 所属分类:专业指导

    • 发布日期:2011-04-08
    • 文件大小:198kb
    • 提供者:lele688
  1. 中文分词软件

  2. 中文简体分词工具,在开发主观题评分,在线商城及其他系统时希望对你有帮助
  3. 所属分类:其它

    • 发布日期:2012-01-03
    • 文件大小:25mb
    • 提供者:liu906745119
  1. 中文分词工具

  2. 这是一个中文的分词工具,支持对汉语的分词及词性标注,用起来很方便的。
  3. 所属分类:C++

    • 发布日期:2012-01-08
    • 文件大小:8mb
    • 提供者:cghgd0754
  1. 汉语文本自动分词算法

  2. 最牛的分词算法,可直接应用 :分析了中文分词词典的机制,提出了一种改进的整词分词字典结构,并针对机械分词算法的特点,将其与概率算法相结 合,探讨了一种中文自动分词概率算法。采用哈希及二分法对词典进行分词匹配。实验表明,该算法具有较高的分词效率和准确 率,对于消去歧义词也有较好的性能。
  3. 所属分类:其它

    • 发布日期:2012-03-30
    • 文件大小:287kb
    • 提供者:zmzbs123
  1. 中文分词十年回顾

  2. 中文分词十年回顾中藐视了中文分词的一些规则及方法,包括,词是否有清晰的界定?;理解和分词孰先孰后;未登录词对分词精度的影响;基于字的分词方法;
  3. 所属分类:专业指导

    • 发布日期:2012-07-18
    • 文件大小:483kb
    • 提供者:denayao
  1. NLPIR分词、去停用词

  2. 整合 使用ICTCLAS2013(NlPIR) x64 的中文分词,分词的速度和效果都不错。然后就是对文本进行的去停用词以及特殊符号(哈工大停用词库)的去除,这些特殊符号还有标点符号,以及文本中夹杂的数字和字母会对分词的效果产生影响。eclipse GBK 编码
  3. 所属分类:互联网

  1. 分词语工具《海量智能分词研究版》

  2. 对中文中的词语进行分词,同时可以进行词性标注.可以对中文进行分词处理,处理完后就没有标点等的影响。海量智能计算技术研究中心为了使中文信息处理领域的研究者们能够共同分享海量智能中心的研究成果,共同提高中文信息处理水平,特此发布《海量智能分词研究版》,供专家学者和爱好者进行研究。 《海量智能分词研究版》仅供研究分析和学术交流,不能用于商业用途。 由于《海量智能分词研究版》仅供研究分析和学术交流,所以与正式版本在性能上有一定差别,如果需要正式版本用于商业用途,请与海量智能计算技术研究中心联系。
  3. 所属分类:专业指导

    • 发布日期:2009-03-17
    • 文件大小:6mb
    • 提供者:zhonghao0077
  1. 中文分词mapreduce程序

  2. 对中文进行分词的java代码,分别在map reduce中实现。
  3. 所属分类:Java

    • 发布日期:2018-03-07
    • 文件大小:1mb
    • 提供者:yerrow_dark
  1. ik-analyzer 中文分词器

  2. solr本身对中文分词的处理不是太好,所以中文应用很多时候都需要额外加一个中文分词器对中文进行分词处理,ik-analyzer就是其中一个不错的中文分词器。
  3. 所属分类:其它

    • 发布日期:2018-05-14
    • 文件大小:1mb
    • 提供者:xiaoqun91
  1. 中文自动分词 哈工大-中文信息处理实验二 实验报告

  2. 中文自动分词 1. 使用任意分词方法实现汉语自动分词; 2. 给出至少1000个句子的分词结果(以附件形式); 3. 计算出分词结果的正确率,并给出计算依据; 4. 用实例说明所用分词方法分别对“交叉歧义”和“组合歧义”的处理能力; 5. 提交实验报告,给出详细实验过程和结果;提交源代码和可执行程序。
  3. 所属分类:Python

    • 发布日期:2018-07-06
    • 文件大小:376kb
    • 提供者:qq_32285991
  1. Python中文分词库Yaha.zip

  2. "哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词,不消除歧义。 搜索引擎模式,在精确的基础上再次驿长词进行切分,提高召回率,适合搜索引擎创建索引。 备选路径,可生成最好的多条切词路径,可在此
  3. 所属分类:其它

  1. 中文对分词

  2. 详细讲述了对中文词对的分词算法,对大家会很有帮助!
  3. 所属分类:网络基础

    • 发布日期:2012-10-22
    • 文件大小:194kb
    • 提供者:karaxixi
  1. 中文分词及其在基于Lucene的全文检索中的应用

  2.   本文构造出一种适应中英文信息处理的Lucene语言分析器,该分析器的核心模块——分词器所使用的分词算法是一种基于词典的中文分词算法,该算法具体实现上采用了基于词前缀哈希技术来进行逐字匹配,采用基于规则统计技术来进行新词识别,通过对分词中衍生词进行回溯分析来处理分词中歧义,从而达到了高效而准确的分词目的。此外,本文还为该语言分析器构造了一些过滤器,用来对初步分词结果进行过滤、优化。
  3. 所属分类:专业指导

    • 发布日期:2013-07-24
    • 文件大小:929kb
    • 提供者:lotusagile
  1. 《中文jieba分词》总结

  2. 针对jieba分词作业做一个总结,方便以后查看。 中文分词 分词,即切词,在NLP文本预处理中经常使用一些方法来对文本进行分词,从而使文本从“字序列”升级到“词序列”。 为什么要进行分词?在中文中,一个个汉字有其自身的含义,但是组成词语时,其含义可能会发生很大的变化,使得之后进行文本处理任务时不能很好的理解句子的含义。(比如“和”,“平”,“和平”,三者的含义有很大的不同。)另外,从字序列升级成词序列,可以使模型能够得到更高级的特征。 分词算法有很多,比如正向最大匹配算法,逆向最大匹配算法,双向
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:60kb
    • 提供者:weixin_38591291
  1. ansj_seg:ansj分词.ict的真正的Java实现。分词效果速度都超过了开源版的ict。中文分词,人名识别,词性标注,用户自定义词典-源码

  2. Ansj中文分词 使用帮助 开发文档: , 摘要 这是一个基于n-Gram + CRF + HMM的中文分词的java实现。 分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上。 目前实现了中文分词,中文姓名识别,用户自定义词典,关键字提取,自动摘要,关键字标记等功能。 可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目。 专家 org.ansj ansj_seg
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:24mb
    • 提供者:weixin_42102401
  1. 基于DRIS系统中的中文自动分词模块设计与实现

  2. 随着信息检索技术越来越受到人们的重视,其中的中文自动分词技术就显得越来越重要。计算机通过对文本中的词语进行识别与处理,直接将结果传送给搜索引擎进行检索。文中在域内资源整合系统(DRIS)的基础上,设计并开发了一个全新的中文自动分词模块。通过算法的比对,选择了正向匹配算法作为该模块的基本算法,对其文件结构,中文词典初始化及识别处理过程做出详细介绍。经后期使用后可比较出该模块在检索效率与服务质量上都有了很大程度上的提高,达到了设计要求。
  3. 所属分类:其它

« 12 3 4 5 6 7 8 9 10 ... 24 »