您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文信息处理分词程序

  2. 实现了中文信息处理的分词过程 点击exe文件直接运行
  3. 所属分类:专业指导

    • 发布日期:2009-12-08
    • 文件大小:459kb
    • 提供者:M55555
  1. 中文分词程序-正向最大匹配算法及逆向最大匹配算法

  2. 运用正向最大匹配算法进行分析,同时也实现了逆向最大匹配,内有分词词典。
  3. 所属分类:其它

    • 发布日期:2010-02-01
    • 文件大小:4mb
    • 提供者:zhujxi
  1. 词性标注词典(Access数据库)

  2. 词性标注词典,Access数据库,中文信息处理课编写分词程序可以用到
  3. 所属分类:Access

    • 发布日期:2010-04-13
    • 文件大小:3mb
    • 提供者:li072529
  1. svmcls文本分类程序(含C++源代码+语料库)完整版

  2. svmcls 2.0文本自动分类器支持中文和英文文档,特征选择方式包括全局和按类别选取,概率估算方法支持基于文档(布尔)统计和基于词频统计,支持三种特征加权方式,特征评估函数包括信息增益、互信息、期望交叉熵、X^2统计,文本证据权重,右半信息增益,分类方法包括支持向量机SVM和K近邻KNN,由李荣陆老师于2004年开发完成。 网上流传很多版本的svmcls文本分类程序,但几乎全部都是不能编译通过的,有些是缺少xercesc文件夹,有些是缺少xerces-c_2_2_0D.dll,有些是缺少分词
  3. 所属分类:C

    • 发布日期:2010-04-30
    • 文件大小:19mb
    • 提供者:moxibingdao
  1. 地址收录程序V1.0

  2. 经过研究,用正向最大匹配算法,做了一个地址收录程序,该程序可以手机整理地址关键字,可以添加详细的地址信息,并可以检索最佳的地址信息。
  3. 所属分类:其它

    • 发布日期:2010-05-05
    • 文件大小:701kb
    • 提供者:jato333
  1. 分词程序 (高效准确),可直接使用

  2. 高效较准确的中英文分词程序(源代码),可直接在VS上使用,并有与其他分析算法的比较分析,好!
  3. 所属分类:其它

    • 发布日期:2010-09-15
    • 文件大小:1mb
    • 提供者:qiang121
  1. SVMCLS 文本自动分类器(可编译Release完整版)--李荣陆

  2. 之前的最好资源描述如下: svmcls 2.0文本自动分类器支持中文和英文文档,特征选择方式包括全局和按类别选取,概率估算方法支持基于文档(布尔)统计和基于词频统计,支持三种特征加权方式,特征评估函数包括信息增益、互信息、期望交叉熵、X^2统计,文本证据权重,右半信息增益,分类方法包括支持向量机SVM和K近邻KNN,由李荣陆老师于2004年开发完成。 网上流传很多版本的svmcls文本分类程序,但几乎全部都是不能编译通过的,有些是缺少xercesc文件夹,有些是缺少xerces-c_2_2_0
  3. 所属分类:C

    • 发布日期:2010-09-21
    • 文件大小:9mb
    • 提供者:superyangtze
  1. 中文三码输入法11.8实用版

  2. 中文分横竖撇点折口六类,三码单字上屏字均2键,词汇可盲打上屏,快超五笔! 选"中"简明输入词组,一般不用翻页! 选"汉"精确输入海量词组,也不用翻页! 选"中与全角/4码唯1自动上屏/重1码空格键上屏/重2码;键/重3码’键上屏! 软件可任意补充字词,可手动调频字词顺序,安装后的信息窗口内有详细帮助! 编码标准规范,简易高效,学用几乎无难点,无重点,无注解,无例外,极有规律! 拼音输入的极大的词汇量,对提高汉语水平,对标准语音和词汇应用帮助极大! 笔划输入的汉字书写笔画笔划笔顺,对错字别字倒笔
  3. 所属分类:Java

    • 发布日期:2010-11-09
    • 文件大小:2mb
    • 提供者:om111
  1. 网页信息提取与分词(搜索引擎基础)

  2. 本程序对html文件进行有效信息提取,并进行中文分词。这是开发网页搜索引擎的前期工作。
  3. 所属分类:网络基础

    • 发布日期:2011-04-12
    • 文件大小:981kb
    • 提供者:fengyunpiaobo
  1. 向量模型-中文分词

  2. 信息检索的经典模型认为,每篇文献可以用一组有代表性的关键词即标引词集合来描述。标引词是文献中的词,其语义可以帮助理解文献的主题;因此,标引词常用于编制索引和概括文献的内容。用来描述文献内容的标引词应该是与文献内容密切相关的语词,我们可以为文献中的标引词定义一个权值(weight)来描述这种相关程度。 标引词加权原理和算法并编程实现
  3. 所属分类:其它

    • 发布日期:2008-04-21
    • 文件大小:213kb
    • 提供者:JurassicMotor
  1. 网软志成分类信息网站系统.net官方商业版

  2. 源码名称:网软分类信息网站系统.net正式版下载分类信息网站模板 源码版本:V2020 建议分类:源码下载/asp.net源码/分类信息 联系EMAIL:38306293@qq.com 软件网站:http://www.wrzc.net 演示网站:http://flnet01.wygk.cn http://flnet02.wygk.cn http://flnet03.wygk.cn http://flnet04.wygk.cn http://www.wrzc.net/fl8 下载地址:http:
  3. 所属分类:C#

    • 发布日期:2012-09-16
    • 文件大小:9mb
    • 提供者:xbtmlove
  1. JAVA版本,每秒约10万汉字,基于词典的中文纯文本分词程序

  2. java版本基于词典匹配,速度为每秒约10万个汉字,本人测试。同时生成倒排索引,倒排索引包含了对于分词的相关信息,如词频。若有Bug可与我联系。
  3. 所属分类:Java

    • 发布日期:2013-12-20
    • 文件大小:122kb
    • 提供者:zhukova
  1. 高级语言程序设计PPT

  2. 实验一:随机抽样 (基于PHP的随便菜单为例) 实验二:信息采集(基于PHP的网页信息采集与抽取) 实验三:信息共享(基于MYSQL数据的信息共享,以移动通讯录为例) 实验四:条形码技术(基于PHP生成二维码) 实验五:中文分词(正向最长匹配、正向最小匹配、词首分词、IK分词组件、中科院分词组件) 实验六:信息集成(以天气预报为例)
  3. 所属分类:Android

    • 发布日期:2014-04-29
    • 文件大小:962kb
    • 提供者:kyasky
  1. 中文信息分词程序12544554

  2. 中文信息分词程序 用api实现的56489798888888888888
  3. 所属分类:Java

    • 发布日期:2008-12-20
    • 文件大小:3mb
    • 提供者:xauat_yuan
  1. 藏拙简易中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1mb
    • 提供者:u012960424
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1mb
    • 提供者:xuying198702
  1. 中文分词服务器源代码及词库

  2. 软件名称:藏拙简易中文分词服务器 作者:藏拙 具体使用时可将 cangzhuo.dat 放在分词服务器相同的目录即可 使用前请先启动分词服务器 分词服务器程序既是一个windows 服务程序, 服务名称是:cangzhuo fenci service and serve 0.1 (藏拙中文分词服务器) 同时又是一个简单的webserver安装启动后,你可以直接在浏览器中输入 http://127.0.0.1:888 进行使用 同时又还是一个Scoket server 通信端口是 888. 分词
  3. 所属分类:Web开发

    • 发布日期:2009-02-18
    • 文件大小:1mb
    • 提供者:mysqlyao
  1. 中文自动分词 哈工大-中文信息处理实验二 实验报告

  2. 中文自动分词 1. 使用任意分词方法实现汉语自动分词; 2. 给出至少1000个句子的分词结果(以附件形式); 3. 计算出分词结果的正确率,并给出计算依据; 4. 用实例说明所用分词方法分别对“交叉歧义”和“组合歧义”的处理能力; 5. 提交实验报告,给出详细实验过程和结果;提交源代码和可执行程序。
  3. 所属分类:Python

    • 发布日期:2018-07-06
    • 文件大小:376kb
    • 提供者:qq_32285991
  1. 中文分词学习版

  2. 此为学习版,请勿用于商业用途或扩散。 以下描述转至互联网。 ============== 一、CSW中分词组件简介 CSW中文分词组件,是一套可自动将一段文本按常规汉语词组进行拆分,并以指定方式进行分隔的COM组件。本组件采用独有的高效的分词引擎及拆分算法,具有准确、高速、资源占用率小等特点。为了满足客户对文本语义进行研究分析的需要,本组件同时提供词性及词频标注功能,可根据用户要求,对其拆分后的词组进行词性标注或词频标注。互联网信息检索、数据库信息查询、智能聊天机器人、文本校对、自动翻译、 自
  3. 所属分类:机器学习

  1. PHP中文分词代码 v1.0 UTF-8.rar

  2. PHP中文分词代码使用居于unicode的词库,使用反向匹配模式分词,理论上兼容编码更广泛,并且对utf-8编码尤为方便。由于PhpanAlysis是无组件的系统,因此速度会比有组件的稍慢,不过在大量分词中,由于边分词边完成词库载入,因此内容越多,反而会觉得速度越快,这是正常现象,对于支持PHP-APC的服务器,本程序支持对词典进行缓存,这样做之后理论的速度并不慢于那些带组件的分词程序了。 分词系统是基于字符串匹配的分词方法 ,这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与
  3. 所属分类:其它

« 12 3 4 »