您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. sogou中文语料库

  2. 相对比较完整的中文语料库,用于中文本分类的训练预料
  3. 所属分类:Java

    • 发布日期:2009-05-06
    • 文件大小:136kb
    • 提供者:kinas2u
  1. LJCorpus中文语料库分析软件

  2. LJCorpus试用版本下载地址 下载地址:http://www.lingjoin.com/download/LJCorpus.rar 介绍: LJCorpus中文语料库分析软件是一套专门针对中文生语料库的加工、抽取、统计与翻译全自动的综合语料分析系统,应用了领先的汉语词法分析技术、新词发现技术、统计挖掘技术以及词语翻译对齐技术,目前,东北师范大学中文系已经成功应用该软件对新加坡的语言进行了分析,极大提高了研究的效率。 LJCorpus中文语料库分析软件的四大功能主要包括: 1. 新词发现:
  3. 所属分类:专业指导

    • 发布日期:2010-04-17
    • 文件大小:12mb
    • 提供者:lingjoin
  1. 灵玖LJCorpus中文语料库分析软件

  2. 语料库语言学是20世纪80年代才崭露头角的一门交叉学科,它研究自然语言文本的采集、存储、加工和统计分析,目的是凭借大规模语料库提供的客观翔实的语言证据来从事语言学研究和指导自然语言信息处理系统的开发。随着互联网的爆炸式增长,中文语料库的规模也随之剧增。语言学的研究面临着各类复杂的海量数据,亟需采用信息化的手段,自动分析相关的语言数据,从而更好地研究并开发使用的自然语言信息处理系统。
  3. 所属分类:其它

    • 发布日期:2011-08-07
    • 文件大小:12mb
    • 提供者:fw_1234
  1. 从大规模中文语料中获取和验证概念的研究 硕士论文

  2. 一个完整的中文语料的硕士论文 提出了新的思路和算法,做语义学的看
  3. 所属分类:专业指导

    • 发布日期:2013-05-28
    • 文件大小:25mb
    • 提供者:jeromessss
  1. LJCorpus中文语料库分析软件

  2. LJCorpus中文语料库分析软件 专门针对中文的语料库分析软件
  3. 所属分类:其它

    • 发布日期:2015-12-18
    • 文件大小:2mb
    • 提供者:qq_33421244
  1. 基本AIML格式中文语料1000条

  2. 问题来自常用中文短语,答案来自网络采集。
  3. 所属分类:其它

    • 发布日期:2017-04-01
    • 文件大小:153kb
    • 提供者:qq137120918
  1. aiml中文语料

  2. aiml,中文语料库,从别的地方收集的,提供大家学习用
  3. 所属分类:机器学习

  1. BOTSALLY® 赛莉®中文语料自动标注语料样例

  2. 赛莉®中文语料自动标注 https://www.botsally.tech 更多的语料资源,请到标注语料下载页面下载,语料的下载仅用于科研实验,商业应用请购买版权。
  3. 所属分类:深度学习

  1. BOTSALLY® 赛莉®中文语料自动标注-细切-词性标注语料样例

  2. 赛莉®中文语料自动标注 https://www.botsally.tech 更多的语料资源,请到标注语料下载页面下载,语料的下载仅用于科研实验,商业应用请购买版权。
  3. 所属分类:深度学习

    • 发布日期:2020-04-28
    • 文件大小:16kb
    • 提供者:weixin_44038242
  1. BOTSALLY® 赛莉®中文语料自动标注-实体识别标注_精细切分_样例

  2. BOTSALLY® 赛莉®中文语料自动标注 最近更新了一些重要功能:更新版的系统使用说明书,标注语料下载页面更新,XML文件转换功能,词性标注实体版,实体标注,还有事件标注。语料的下载仅用于科研实验,商业应用请购买版权。
  3. 所属分类:深度学习

    • 发布日期:2020-04-28
    • 文件大小:10kb
    • 提供者:weixin_44038242
  1. 赛莉®中文语料自动标注_精细切分标注标签展示样例1_新闻

  2. BOTSALLY® 赛莉®中文语料自动标注 精细切分标注标签展示样例1_新闻。在多个标注员协作标注同一个标注任务的需求下,标注的一致性仍然有保证的。可以降低标注员的学习门槛。快速扩充标注团队。测试阶段,每个管理账号可以拥有超过50个独立标注员子账号。
  3. 所属分类:深度学习

  1. 电商评论 中文语料 全中文 空格分词 60W

  2. 电商评论中文语料,全中文,分词,60W
  3. 所属分类:机器学习

    • 发布日期:2020-03-20
    • 文件大小:41mb
    • 提供者:Da___Vinci
  1. python gensim使用word2vec词向量处理中文语料的方法

  2. 主要介绍了python gensim使用word2vec词向量处理中文语料的方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:184kb
    • 提供者:weixin_38695061
  1. NegationScopeAnnotation_for_Chinese_as_a_Second_Language:这是一个新的中等大小的中文语料库,其中包含由非母语人士(即日语和英语)撰写的8000句的手动否定注释,以及由母语人士(即中文)

  2. NegationScopeAnnotation_for_Chinese_as_a_Second_Language 这是一个新的中等大小的中文语料库,其中包含由非母语人士(即日语和英语)撰写的8000个句子的手动否定注释,以及由母语人士(即中文)进行的更正。
  3. 所属分类:其它

  1. 【用户行为分析】 用wiki百科中文语料训练word2vec模型-附件资源

  2. 【用户行为分析】 用wiki百科中文语料训练word2vec模型-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-05
    • 文件大小:106byte
    • 提供者:weixin_42197129
  1. 使用nltk处理中文语料(1)- 统计相关-附件资源

  2. 使用nltk处理中文语料(1)- 统计相关-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-05
    • 文件大小:106byte
    • 提供者:weixin_42202724
  1. 【用户行为分析】 用wiki百科中文语料训练word2vec模型-附件资源

  2. 【用户行为分析】 用wiki百科中文语料训练word2vec模型-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-02
    • 文件大小:23byte
    • 提供者:weixin_42183453
  1. 使用nltk处理中文语料(1)- 统计相关-附件资源

  2. 使用nltk处理中文语料(1)- 统计相关-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-02
    • 文件大小:23byte
    • 提供者:weixin_42190623
  1. 维基中文语料库(非最新)(两部分此为Part2) zhwiki-latest-pages-articles.xml.bz2_.part2

  2. 维基中文语料库(非最新)(两部分此为Part2) zhwiki-latest-pages-articles.xml.bz2_.part2 | 原压缩包太大需要分两次上传,part1链接:https://download.csdn.net/download/Joker_Q/14967708
  3. 所属分类:机器学习

    • 发布日期:2021-01-30
    • 文件大小:676mb
    • 提供者:Joker_Q
  1. 维基中文语料库(非最新)(两部分此为Part1) zhwiki-latest-pages-articles.xml.bz2_.part1.rar

  2. 维基中文语料库(非最新)(两部分此为Part1) zhwiki-latest-pages-articles.xml.bz2_.part1 | Part2不需要积分, Part2链接:https://download.csdn.net/download/Joker_Q/14967774
  3. 所属分类:机器学习

    • 发布日期:2021-01-30
    • 文件大小:800mb
    • 提供者:Joker_Q
« 12 3 4 5 6 7 8 9 10 ... 23 »