您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 中文词库素材词汇量超过10万+语料库

  2. 中文词库素材词汇量超过10万+语料库,语料库包含200个已分类的语料。是以前做分本分类搜集来的,供从事这方面的朋友学习借鉴
  3. 所属分类:专业指导

    • 发布日期:2010-03-19
    • 文件大小:2mb
    • 提供者:daxuea
  1. LJCorpus中文语料库分析软件

  2. LJCorpus试用版本下载地址 下载地址:http://www.lingjoin.com/download/LJCorpus.rar 介绍: LJCorpus中文语料库分析软件是一套专门针对中文生语料库的加工、抽取、统计与翻译全自动的综合语料分析系统,应用了领先的汉语词法分析技术、新词发现技术、统计挖掘技术以及词语翻译对齐技术,目前,东北师范大学中文系已经成功应用该软件对新加坡的语言进行了分析,极大提高了研究的效率。 LJCorpus中文语料库分析软件的四大功能主要包括: 1. 新词发现:
  3. 所属分类:专业指导

    • 发布日期:2010-04-17
    • 文件大小:12mb
    • 提供者:lingjoin
  1. SVMCLS 文本自动分类器(可编译Release完整版)--李荣陆

  2. 之前的最好资源描述如下: svmcls 2.0文本自动分类器支持中文和英文文档,特征选择方式包括全局和按类别选取,概率估算方法支持基于文档(布尔)统计和基于词频统计,支持三种特征加权方式,特征评估函数包括信息增益、互信息、期望交叉熵、X^2统计,文本证据权重,右半信息增益,分类方法包括支持向量机SVM和K近邻KNN,由李荣陆老师于2004年开发完成。 网上流传很多版本的svmcls文本分类程序,但几乎全部都是不能编译通过的,有些是缺少xercesc文件夹,有些是缺少xerces-c_2_2_0
  3. 所属分类:C

    • 发布日期:2010-09-21
    • 文件大小:9mb
    • 提供者:superyangtze
  1. 中文分词十年回顾 自动分词系统

  2. 过去的十年间,尤其是2003年国际中文分词评测活动Bakeoff开展以来,中文自动分词技术有了可喜的进 步。其主要表现为:(1)通过“分词规范+词表+分词语料库”的方法,使中文词语在真实文本中得到了可计算的定 义,这是实现计算机自动分词和可比评测的基础;(2)实践证明,基于手工规则的分词系统在评测中不敌基于统计 学习的分词系统;(3)在Bakeoff数据上的评估结果表明,未登录词造成的分词精度失落至少比分词歧义大5倍以 上;(4)实验证明,能够大幅度提高未登录词识别性能的字标注统计学习方法优于
  3. 所属分类:其它

    • 发布日期:2011-04-10
    • 文件大小:1mb
    • 提供者:lwccb
  1. 语音识别技术文章.rar

  2. 第一部分 基本理论 第2章 听觉机理和汉语语音基础 2. 1 概述 2.2 听觉机理和心理 2.2.1 语音听觉器官的生理结构 2.2.2 语音听觉的心理 2.3 发音的生理机构与过程 2.4 汉语语音基本特性 2.4. 1 元音和辅音 2.4.2 声母和韵母 2.4.3 音调(字调) 2.4.4 音节(字)构成 2.4.5 汉语的波形特征 2.4.6 音的频谱特性 2.4.7 辅音的频谱特性 2.4.8 汉语语音的韵律特征 2.5 小结 参考文献 第3章 语音信号处理方法--时域处理 3.1
  3. 所属分类:其它

    • 发布日期:2011-05-12
    • 文件大小:5mb
    • 提供者:wangjunhui1984
  1. WINCE 6.0 TTS 语音合成(朗读)

  2. ejTTS 6.0 特性 支持多种规模的音库,满足各类需求; 支持合成语音的不同采样率、比特率、格式输出; 支持用户定制化需求; 支持多种压缩参数和谱参数引擎; 支持动态音频参数规划; 支持流式文本输入; 支持进度通知; 支持同步回显拼音输出; 全新架构,具有高可靠的稳定性。 2.2. 高品质的语音合成效果 由于采用了新的语音合成算法,ejTTS 在合成效果上已经接近传统大语料库语音合 成算法的效果,与以往的嵌入式语音合成软件相比,合成语音更加自然和流畅。 由于采用了一体化的智能文本分析算法,
  3. 所属分类:嵌入式

    • 发布日期:2012-06-21
    • 文件大小:1013kb
    • 提供者:softn
  1. ICTPOS3.0汉语词性标记集

  2. 计算所汉语词性标记集(共计99个,22个一类,66个二类,11个三类)主要用于中国科学院计算技术研究所研制的汉语词法分析器、句法分析器和汉英机器翻译系统。本标记集主要参考了以下词性标记集: 1. 北大《人民日报》语料库词性标记集; 2. 北大2002新版词性标记集(草稿); 3. 清华大学汉语树库词性标记集; 4. 教育部语用所词性标记集(国家推荐标准草案2002版); 5. 美国宾州大学中文树库(ChinesePennTreeBank)词性标记集;
  3. 所属分类:互联网

    • 发布日期:2014-09-04
    • 文件大小:61kb
    • 提供者:beiyouyu
  1. 香港城市大学语料库;微软亚洲研究院语料库;北京大学语料库;

  2. 香港城市大学语料库(1 772 202 字,训练集)、微软亚洲研究院语料库(1 089 050 字,训练集)、北京大学语料库(1 833 177 字,训练集)
  3. 所属分类:其它

    • 发布日期:2017-06-14
    • 文件大小:41mb
    • 提供者:u010105243
  1. 搜狗语料库(已分词)

  2. 搜狗语料库,自己用结巴分词分好的。(为什么摘要必须大于50个字)
  3. 所属分类:算法与数据结构

    • 发布日期:2017-11-07
    • 文件大小:16mb
    • 提供者:a602232180
  1. Android代码-Java 实现的自然语言处理中文分词

  2. HanLP: Han Language Processing 汉语言处理包 HanLP是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 HanLP提供下列功能: 中文分词 HMM-Bigram(速度与精度最佳平衡;一百兆内存) 最短路分词、N-最短路分词 由字构词(侧重精度,全世界最大语料库,可识别新词;适合NLP任务) 感知机分词、CRF分词 词典分词(侧重速度,每
  3. 所属分类:其它

    • 发布日期:2019-08-06
    • 文件大小:21mb
    • 提供者:weixin_39840924
  1. pyhanlp安装介绍和简单应用

  2. 1. 前言 中文分词≠自然语言处理! Hanlp HanLP是由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 功能:中文分词 词性标注 命名实体识别 依存句法分析 关键词提取新词发现 短语提取 自动摘要 文本分类 拼音简繁 中文分词只是第一步;HanLP从中文分词开始,覆盖词性标注、命名实体识别、句法分析、文本分类等常用任务,提供了丰富的API。 不同于一些简陋的分词类库,HanLP精心
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:143kb
    • 提供者:weixin_38652636