您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. [海量智能分词].hlssplit(研究版)

  2. [海量智能分词].hlssplit 研究版~最近在做中文分词相关的项目,【海量智能分词】提供很好的参考~
  3. 所属分类:专业指导

    • 发布日期:2009-08-13
    • 文件大小:6mb
    • 提供者:jatystone
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3mb
    • 提供者:madl_lxj_163
  1. 支持英文数字中文混合分词-实现很多功能非常强大!

  2. 支持英文数字中文混合分词 常用的数量和人名的匹配 超过22万词的词库整理 实现正向最大匹配算法 智能数字,日期,人名识别。分词算法:词库+最大匹配。具体的里面有非常详尽的说明文档
  3. 所属分类:其它

    • 发布日期:2009-09-21
    • 文件大小:43kb
    • 提供者:manuxiao
  1. C++编写的中文分词程序

  2. C++编写的中文分词程序,可以运行: 输入一个汉字的文本文件,可将里面的汉字分解成一个个符合人们心理的词,有点智能化了哦~
  3. 所属分类:C++

    • 发布日期:2009-09-21
    • 文件大小:82kb
    • 提供者:manuxiao
  1. JAVA编写的中文智能分词源程序

  2. 用JAVA编写的中文智能源程序,用户也可以自己设置一些常用语句。对于研究搜素引擎的学者来说最适合不过了。
  3. 所属分类:Java

    • 发布日期:2009-11-22
    • 文件大小:177kb
    • 提供者:cctv6909
  1. 汉语分词技术综述.pdf

  2. [摘要]首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤,自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。 [关键词]汉语自动分词中文全文检索文献自动标引 自然语言检索
  3. 所属分类:专业指导

    • 发布日期:2009-12-14
    • 文件大小:594kb
    • 提供者:shan_xue_xib
  1. 调用海量智能分词研究版的dll获取分词的结果(C#)

  2. 中文分词是中文搜索引擎的基础,主要应用在信息检索、信息挖掘、中外文对译、中文校对、自动聚类、自动分类等很多方面. 这个是我参照VC的例子修改的C#版本。
  3. 所属分类:C#

    • 发布日期:2009-12-22
    • 文件大小:6mb
    • 提供者:new_sky_hony
  1. 中文分词中文分词中文分词

  2. 分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词分词中文智能分词
  3. 所属分类:专业指导

    • 发布日期:2010-01-14
    • 文件大小:1mb
    • 提供者:futureJing
  1. 汉语分词技术综述 文档 论文

  2. 首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤、自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。
  3. 所属分类:专业指导

    • 发布日期:2010-01-17
    • 文件大小:56kb
    • 提供者:tberg
  1. asp/jsp/.net/php中文智能分词源代码

  2. 中文 智能 分 词源 代码中文智能分词源代码 中文智能分词源代码 中文智能分词源代码 中文智能分词源代码
  3. 所属分类:C#

    • 发布日期:2010-11-15
    • 文件大小:815kb
    • 提供者:qzzxl
  1. 最大匹配法中文分词及人名智能识别程序

  2. 这是我假期利用空余时间利用空余时间做的一个中文分词程序!效率很好!能够支持最大匹配法中文分词,人名智能识别!本人承诺完全具有可重复性!只要在cv6上肯定能运行通过,加入了简洁的运行界面!内嵌测试文本,操作简单!一键就能看到结果。
  3. 所属分类:C++

    • 发布日期:2011-03-11
    • 文件大小:616kb
    • 提供者:lileihengyan
  1. 海量智能分词(研究版)

  2. 海量智能中文分词(研究版),大家都懂的!
  3. 所属分类:其它

    • 发布日期:2011-07-29
    • 文件大小:6mb
    • 提供者:menglionel
  1. 3GWS-Demo中文分词

  2. 很好用的一个中文分词软件。包括词库,智能分词。
  3. 所属分类:C

    • 发布日期:2011-11-09
    • 文件大小:3mb
    • 提供者:niubenaniu
  1. ICTCLAS2009版中文分词系统

  2. 中国科学院计算技术研究所在多年研究工作积累的基础上,研制出了汉语词法分析系统ICTCLAS(Institute of Computing Technology, Chinese Lexical Analysis System),主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展 用户可以动态增加、删除用户词典中的词,调节分词的效果。提高了用户词典使用的灵活性。 分词粒度可调 可以
  3. 所属分类:C++

    • 发布日期:2012-01-02
    • 文件大小:9mb
    • 提供者:yahawami
  1. 收集的一个智能分词工具

  2. 收集的一个智能分词工具,该工具很适合做文本识别、搜索
  3. 所属分类:C#

    • 发布日期:2012-05-06
    • 文件大小:2mb
    • 提供者:hmy1106
  1. php智能分词源码

  2. 用php简单实现中文语句语义乃至文章的智能分词,可以应用于智能助手,机器人智能回复当中。
  3. 所属分类:PHP

    • 发布日期:2014-04-02
    • 文件大小:661kb
    • 提供者:u014510608
  1. 第三代智能分词系统3GWS

  2. 第三代智能分词系统3GWS有汉语智能分词、命名实体与新词识别、词性标注以及支持用户自定义词典等功能,分词精度在96.56%以上,而且具有良好的跨平台性。
  3. 所属分类:3G/移动开发

    • 发布日期:2009-02-23
    • 文件大小:2mb
    • 提供者:albert_sky
  1. 分词语工具《海量智能分词研究版》

  2. 对中文中的词语进行分词,同时可以进行词性标注.可以对中文进行分词处理,处理完后就没有标点等的影响。海量智能计算技术研究中心为了使中文信息处理领域的研究者们能够共同分享海量智能中心的研究成果,共同提高中文信息处理水平,特此发布《海量智能分词研究版》,供专家学者和爱好者进行研究。 《海量智能分词研究版》仅供研究分析和学术交流,不能用于商业用途。 由于《海量智能分词研究版》仅供研究分析和学术交流,所以与正式版本在性能上有一定差别,如果需要正式版本用于商业用途,请与海量智能计算技术研究中心联系。
  3. 所属分类:专业指导

    • 发布日期:2009-03-17
    • 文件大小:6mb
    • 提供者:zhonghao0077
  1. IKAnalyzer中文分词器

  2. IKAnalyzer分词器,是由java编写的中文分词工具包,目前在lucene以及solr中用的比较多,采用了特有的“正向迭代最细粒度切分算法“,支持细粒度和智能分词两种切分模式
  3. 所属分类:Java

    • 发布日期:2018-10-27
    • 文件大小:2mb
    • 提供者:qq_38714963
  1. IK Analyzer 开源中文分词 2012 u6.zip

  2. IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件。从3.0版本开 始,IK发展为面向Java的公用分词组件,独立于Lucene项目,同时提供了对Lucene的默认优化实现。在2012版本中,IK实现了简单的分词 歧义排除算法,标志着IK分词器从单纯的词典分词向模拟语义分词衍化。 IK Analyz
  3. 所属分类:其它

« 12 3 4 5 6 »