您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 纯文本词典 中文分词 分词文本 文本词典

  2. 文本词典 中文分词 分词文本 纯文本词典 中文分词 分词文本 文本词典 信息检索
  3. 所属分类:Java

    • 发布日期:2009-06-15
    • 文件大小:1048576
    • 提供者:behappy373
  1. csw5.0中文分词组件

  2. 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自动摘要、自动分类及信息加工处理等各个领域。 二、本组件特点: 1.适应性强 本组全部件采用
  3. 所属分类:C#

    • 发布日期:2009-09-01
    • 文件大小:3145728
    • 提供者:madl_lxj_163
  1. 中文分词的切分词典(词性标注,数据库为基础的文本分类检索过滤

  2. 用于中文分词的切分词典,还有词性标注,以这个词典数据库为基础建立文本分类,文本检索或文本过滤可以节省很多时间.很全,强烈推荐
  3. 所属分类:专业指导

    • 发布日期:2009-09-21
    • 文件大小:218112
    • 提供者:manuxiao
  1. C++编写的中文分词程序

  2. C++编写的中文分词程序,可以运行: 输入一个汉字的文本文件,可将里面的汉字分解成一个个符合人们心理的词,有点智能化了哦~
  3. 所属分类:C++

    • 发布日期:2009-09-21
    • 文件大小:83968
    • 提供者:manuxiao
  1. 东南大学信息处理实验室做的中文分词的源代码

  2. 东南大学信息处理实验室做的中文分词的源代码和exe,可直接使用非常的强大撒,是分词动态库例程,主要是用于搜索引擎的中文文本预处理,
  3. 所属分类:C++

    • 发布日期:2009-09-21
    • 文件大小:595968
    • 提供者:manuxiao
  1. 用C++写的分词程序源代码

  2. 一个用C++写的分词程序,对文本的预处理会有所帮助
  3. 所属分类:C++

    • 发布日期:2009-10-11
    • 文件大小:809984
    • 提供者:waterlily00
  1. C#实现的中文分词程序

  2. 用键树实现对中文文本的分词处理,使用C#语言实现,希望能对大家有所帮助
  3. 所属分类:C#

    • 发布日期:2009-11-23
    • 文件大小:1048576
    • 提供者:superlzj
  1. 汉语分词技术综述.pdf

  2. [摘要]首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤,自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。 [关键词]汉语自动分词中文全文检索文献自动标引 自然语言检索
  3. 所属分类:专业指导

    • 发布日期:2009-12-14
    • 文件大小:608256
    • 提供者:shan_xue_xib
  1. 中文分词处理源程序(东大)

  2. 东大做中文分词的源代码,主要是用于搜索引擎的中文文本预处理
  3. 所属分类:专业指导

    • 发布日期:2010-01-04
    • 文件大小:595968
    • 提供者:M55555
  1. 汉语分词技术综述 文档 论文

  2. 首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤、自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的应用,并对目前 汉语自动分词技术存在的局限性进行分析,提出发展思路,最后对汉语自动分词技术在中文全文检索中的应用前景进行预测。
  3. 所属分类:专业指导

    • 发布日期:2010-01-17
    • 文件大小:57344
    • 提供者:tberg
  1. ICTCLAS分词工具C++源码

  2. 中科院ICTCLAS分词工具C++源码,用于对中文文本的分词
  3. 所属分类:C++

    • 发布日期:2010-01-25
    • 文件大小:65536
    • 提供者:search1985
  1. ACWPS(爱博汉语分词系统)分词组件 asp分词组件

  2. 爱博汉语分词系统Web服务器支持标准的HTTP协议,可以跨平台调用,支持分布式运算; 爱博汉语分词系统COM组件提供COM和DLL接口(Windows环境) 以及共享库.so(Linux)形式,可支持所有支持COM接口调用的编程语言及脚本语言。 如:PHP、JSP、ASP、ASP.net、C/C++ 、VC6.0 、VC.net、BC、C#、VB6.0 、VB.net、Delphi、Java等。 爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响
  3. 所属分类:C#

    • 发布日期:2010-02-28
    • 文件大小:2097152
    • 提供者:selectersky
  1. porter stemming 分词算法

  2. 分词算法 有ansi c 和java版本 从文本中分离出词语(英文) 从官网可以找到多语言实现: http://tartarus.org/~martin/PorterStemmer/
  3. 所属分类:C

    • 发布日期:2010-03-09
    • 文件大小:8192
    • 提供者:gtx360
  1. 中文自动分词&全文检索@统计工具(GBK版

  2. 本系统具备中文自动分词、全文检索、统计等基本功能,具体介绍如下: 1、中文自动分词 1)能对给定的中文文本进行自动分词、词性一级、词性二级标注; 2)支持大批量文本的自动分词及词性标注处理,可处理各级子文件夹下的文件; 3)能根据待分词及标注文本的类别,加挂用户自定义词典,进一步提高分词和标注的精确度; 4)用户可对系统词典进行扩展,可添加、删除、查看系统词典,可将系统词典输出为TXT文本编辑后再转换为系统用的电子词典; 5)支持人名、地名、机构名等未登录词识别,支持基于GBK字符集的简、繁体
  3. 所属分类:专业指导

    • 发布日期:2010-04-22
    • 文件大小:3145728
    • 提供者:lonewar
  1. 文本分词系统

  2. 包含最新的分词系统,C/C++开发,提供调用接口
  3. 所属分类:C++

    • 发布日期:2014-05-23
    • 文件大小:57671680
    • 提供者:lining0806
  1. ICTCLAS-NLPIR2016分词大会演讲

  2. 张华平老师-ICTCLAS-NLPIR2016分词大会演讲PPT
  3. 所属分类:讲义

    • 发布日期:2016-04-18
    • 文件大小:12582912
    • 提供者:u010721054
  1. 采用正向逆向最大匹配才实现汉字分词wordppl.rar

  2. 采用正向逆向最大匹配才实现汉字分词,应用简单的分词文本,可供学习参考。
  3. 所属分类:C/C++

    • 发布日期:2013-10-27
    • 文件大小:1048576
    • 提供者:jiangxue_666
  1. python实现机械分词之逆向最大匹配算法代码示例

  2. 逆向最大匹配方法 有正即有负,正向最大匹配算法大家可以参阅//www.jb51.net/article/127404.htm 逆向最大匹配分词是中文分词基本算法之一,因为是机械切分,所以它也有分词速度快的优点,且逆向最大匹配分词比起正向最大匹配分词更符合人们的语言习惯。逆向最大匹配分词需要在已有词典的基础上,从被处理文档的末端开始匹配扫描,每次取最末端的i个字符(分词所确定的阈值i)作为匹配字段,若匹配失败,则去掉匹配字段最前面的一个字,继续匹配。而且选择的阈值越大,分词越慢,但准确性越好。 逆
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:158720
    • 提供者:weixin_38713996
  1. Spark中文分词+文本分类.rar

  2. Scala中文分词+SparkML逻辑回归 实现 中文文本分类
  3. 所属分类:机器学习

    • 发布日期:2021-03-25
    • 文件大小:13631488
    • 提供者:Yellow_python
  1. pkuseg-python:pkuseg多领域中文分词工具; 用于多域中文分词的pkuseg工具包-源码

  2. pkuseg:一个多领域中文分词工具包 pkuseg是基于论文[ ]的工具包。其简单易用,支持细分领域分词,有效提升了分词准确度。 目录 主要亮点 pkuseg具有如下几个特点: 多领域分词。以及以前的通用中文分词工具,此工具包同时致力于为不同领域的数据提供个性化的预训练模型。根据待分词文本的领域特点,用户可以自由地选择不同的模型。目前支持了新闻领域,网络领域,医药领域,旅游领域,以及混合领域的分词预训练模型。在使用中,如果用户明确待分词的领域,可加载对应的模型进行分词。如果用户无法确定具
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:1048576
    • 提供者:weixin_42130786
« 12 3 4 5 6 7 8 9 10 ... 40 »