您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文分词PPT

  2. 中文分词 ppt 牛*
  3. 所属分类:Java

    • 发布日期:2007-08-06
    • 文件大小:525312
    • 提供者:dashgo
  1. Lucene中文分词 庖丁解牛 2_0_0版

  2. Paoding中文分词参考手册 本文档对应paoding-analysis 2.0.4–alpha2,目前还在草稿状态。 由于没有docbook编辑文档的经验和环境,暂时以word编辑文档。 目录 一般使用 使用评估 参考资料 下载 开始使用 分词策略 高级专题 配置参考 PaodingMaker的设计 庖丁架构 词典的抽象与设计 词典定制 词典动态加载 自定制分词策略 集成指南 Spring XML 配置 一般使用 使用评估 暂略 参考资料 ...展开收缩
  3. 所属分类:Java

    • 发布日期:2009-05-10
    • 文件大小:5242880
    • 提供者:iMLuther
  1. idf词频统计小巧中文分词词库

  2. idf词频统计小巧中文分词词库 idf词频统计小巧中文分词词库
  3. 所属分类:专业指导

    • 发布日期:2009-05-31
    • 文件大小:790528
    • 提供者:leo1314lll
  1. php 中文分词程序

  2. 包含中文分词程序 与中文分词库 配置方法请看官方网站
  3. 所属分类:PHP

    • 发布日期:2009-06-24
    • 文件大小:3145728
    • 提供者:tangdayun
  1. 中文分词包ictclas4j

  2. 中文分词包ictclas4j 中文分词包ictclas4j
  3. 所属分类:Java

    • 发布日期:2009-06-24
    • 文件大小:2097152
    • 提供者:buaacjl
  1. 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用

  2. 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用 中文分词 庖丁解牛 2_0_0版本发布 - 企业应用
  3. 所属分类:Java

    • 发布日期:2009-07-19
    • 文件大小:110592
    • 提供者:ruanpanliang
  1. 引入局部统计识别高频词汇的Lucene中文分词程序src.rar

  2. 引入局部统计识别高频词汇的Lucene中文分词程序src.rar
  3. 所属分类:专业指导

    • 发布日期:2009-07-29
    • 文件大小:32768
    • 提供者:luanmad
  1. 引入局部统计识别高频词汇的Lucene中文分词程序STUSegmentConfig.rar

  2. 引入局部统计识别高频词汇的Lucene中文分词程序STUSegmentConfig.rar
  3. 所属分类:专业指导

    • 发布日期:2009-07-29
    • 文件大小:754
    • 提供者:luanmad
  1. Lucene关于几种中文分词的总结.doc

  2. Lucene关于几种中文分词的总结.doc Lucene关于几种中文分词的总结.doc Lucene关于几种中文分词的总结.doc
  3. 所属分类:Java

    • 发布日期:2009-08-25
    • 文件大小:36864
    • 提供者:hbyufan
  1. 中文分词组件。1.5版的分词器

  2. je分词器。1.5版的,对以前的有很大的改进,当我1.4的时候,发现连“好人”这个词都分析不出来,所以特上传1.5版
  3. 所属分类:专业指导

    • 发布日期:2009-08-25
    • 文件大小:891904
    • 提供者:lsyaxue
  1. IKAnalyzer中文分词器V3.1.1使用手册

  2. IKAnalyzer中文分词器V3.1.1使用手册 IKAnalyzer中文分词器V3.1.1使用手册
  3. 所属分类:Java

    • 发布日期:2009-11-05
    • 文件大小:498688
    • 提供者:jimmylin
  1. 中文分词算法研究.caj

  2. 中文分词算法研究.caj 刘件 caj文件要下载知网的阅读器
  3. 所属分类:其它

    • 发布日期:2009-11-30
    • 文件大小:331776
    • 提供者:shan_xue_xib
  1. 中文分词论文.rar

  2. 中文分词论文合集,有大约10多篇论文,都是比较好的中文分词算法讲解!希望对大家有用!
  3. 所属分类:其它

    • 发布日期:2009-11-30
    • 文件大小:7340032
    • 提供者:kaparo
  1. IKAnalyzer中文分词器V3.1.1使用手册.pdf

  2. IKAnalyzer中文分词器V3.1.1使用手册.pdf
  3. 所属分类:专业指导

    • 发布日期:2009-12-03
    • 文件大小:498688
    • 提供者:chinawr
  1. 刨丁解羊中文分词器-主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词

  2. 刨丁解羊中文分词器,主要用于对网络蜘蛛或网络爬虫抓取的网页进行分词,支持繁体中文分词、简体中文分词、英文分词,是制作通用搜索引擎和垂直搜索引擎的核心组件。该软件在普通PC机器上测试显示:TXT格式正文分词速度约为3000万字/分钟,网页分词速度约为277.8个网页/秒。该软件采用基础词库(63万词语)+扩展词库(用户可手工添加新词)。DLL及OCX调用请联系QQ(601069289)。
  3. 所属分类:网络基础

    • 发布日期:2010-08-30
    • 文件大小:2097152
    • 提供者:henggua
  1. 中文分词十年回顾 自动分词系统

  2. 过去的十年间,尤其是2003年国际中文分词评测活动Bakeoff开展以来,中文自动分词技术有了可喜的进 步。其主要表现为:(1)通过“分词规范+词表+分词语料库”的方法,使中文词语在真实文本中得到了可计算的定 义,这是实现计算机自动分词和可比评测的基础;(2)实践证明,基于手工规则的分词系统在评测中不敌基于统计 学习的分词系统;(3)在Bakeoff数据上的评估结果表明,未登录词造成的分词精度失落至少比分词歧义大5倍以 上;(4)实验证明,能够大幅度提高未登录词识别性能的字标注统计学习方法优于
  3. 所属分类:其它

    • 发布日期:2011-04-10
    • 文件大小:1048576
    • 提供者:lwccb
  1. 分词组件V2.3.1源码

  2. 分词组件V2.3.1源码 程序介绍: 盘古分词是一个中英文分词组件。作者eaglet 曾经开发过KTDictSeg 中文分词组件,拥有大量用户来自51ASPX。 作者基于之前分词组件的开发经验,结合最新的开发技术重新编写了盘古分词组件。 中文分词功能 中文未登录词识别 盘古分词可以对一些不在字典中的未登录词自动识别 词频优先 盘古分词可以根据词频来解决分词的歧义问题 多元分词 盘古分词提供多重输出解决分词粒度和分词精度权衡的问题 中文人名识别 输入: “张三说的确实在理” 分词结果:张三/说/
  3. 所属分类:C#

    • 发布日期:2012-05-23
    • 文件大小:6291456
    • 提供者:ss_geng
  1. Ansj中文分词(强大)

  2. Ansj中文分词是一款纯Java、主要用于自然语言处理、高精度的中文分词工具,目标是“准确、高效、自由地进行中文分词”。 内容简介:http://www.iteye.com/magazines/102#234 此分词具有自己学习的功能,所以拜托大家不要.乱提交数据.会带坏人家的.说着神秘.其实是一种机器学习动态规划模型!如果你发现此模式分词存在问题.可以看.新词发现.是此分词的初始版本! 此分词保证了准确率,具有人名识别的功能! 此分词结果,具有新词发现,人名识别,机构名识别.也许准确率稍差.
  3. 所属分类:Java

    • 发布日期:2013-06-21
    • 文件大小:13631488
    • 提供者:kutekute
  1. 中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

  2. word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。 分词使用方法: 1、快速体验 运行项目根目录下的脚本demo-word.bat可以快速体验分词效果 用法: command [text] [input] [output] 命令command的可选值为:demo、text、file
  3. 所属分类:Java

    • 发布日期:2014-11-05
    • 文件大小:10485760
    • 提供者:love_hachi
  1. 中文分词入门与字标注法

  2. 作为中文信息处理的“桥头堡”,中文分词在国内的关注度似乎远远超过了自然语言处理的其他研究领域。在中文分词中,资源的重要性又不言而喻,最大匹配法等需要一个好的词表,而基于字标注的中文分词方法又需要人工加工好的分词语料库。所以想研究中文分词,第一步需要解决的就是资源问题,这里曾经介绍过“LDC上免费的中文信息处理资源”,其中包括一个有频率统计的词表,共计44405条,就可以作为一个不错的中文分词词表使用。而一个好的人工分词语料库,需要很大的人力物力投入,所以无论研究还是商用往往需要一定的费用购买,
  3. 所属分类:深度学习

    • 发布日期:2017-12-14
    • 文件大小:251904
    • 提供者:u011563494
« 12 3 4 5 6 7 8 9 10 ... 50 »